• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12733
  • 124
  • 4
  • Tagged with
  • 12860
  • 12860
  • 12860
  • 8802
  • 3072
  • 2811
  • 2810
  • 2733
  • 1763
  • 1568
  • 1436
  • 1145
  • 1138
  • 1092
  • 822
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1021

Particionamento e mapeamento de MPSOCS homog?neos baseados em NOCS

Antunes, Eduardo de Brum 29 February 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:42Z (GMT). No. of bitstreams: 1 437796.pdf: 2125944 bytes, checksum: 5e312ec4db3f55dac8ce8c7388128326 (MD5) Previous issue date: 2012-02-29 / The increasing complexity of the applications demands more processing capacity, which boosts the development of a computational system composed of modules, such as processors, memories and specific hardware cores, called Multi-Processor System-on- Chip (MPSoC). If the modules of this system are connected through a Network-on-Chip (NoC) communication infrastructure and all processors are of the same type, they are known by homogeneous NoC based MPSoC. One of the main problems relating to MPSoCs design is the definition of which processors of the system will be responsible for each application task execution, objecting to meet the design requirements, such as the energy consumption minimization and the application execution time reduction. This work aims to carry out quickly and efficiently partitioning and mapping activities for the design of homogeneous MPSoCs. More specifically, the partitioning application's task into groups, and mapping of tasks or task groups into a target architecture type homogeneous NoC-based MPSoC. These activities are guided by requirements of energy consumption minimization and load balancing, and delimited by constraints of maximum energy consumption, maximum processing load and maxima areas of data and code of each processor. The work shows the complexity of partitioning and mapping activities separately and jointly. It also shows that the mapping is more efficient on energy consumption minimization, when compared to partitioning, yet the effect of partitioning cannot be neglected. Moreover, the joint effect of both activities saves in average 37% of energy. The mapping when performed at runtime may be inefficient, due to the short time and the large number of solutions to be explored. Having an approach that applies a static partition before the dynamic mapping, it is possible to achieve more efficient mappings / O aumento da complexidade das aplica??es demanda maior capacidade de processamento, impulsionando o desenvolvimento de um sistema computacional compostos por m?dulos como processadores, mem?rias e n?cleos de hardware espec?ficos, chamado de Multi-Processor System-on-Chip (MPSoC). Se os m?dulos deste sistema forem conectados por uma infraestrutura de comunica??o do tipo Network-on- Chip (NoC) e todos os processadores forem de um ?nico tipo, este ? chamado de MPSoC homog?neo baseado em NoC. Um dos principais problemas relativo ao projeto de MPSoCs ? a defini??o de qual dos processadores do sistema ser? respons?vel pela execu??o de cada tarefa de uma aplica??o, visando atender os requisitos de projeto, tais como a redu??o do consumo de energia e a redu??o do tempo de execu??o da aplica??o. Este trabalho tem como objetivo a realiza??o de forma r?pida e eficiente das atividades de particionamento e mapeamento para o projeto de MPSoCs homog?neos. Mais especificamente o particionamento de tarefas de uma aplica??o em grupos, e o mapeamento de tarefas ou grupos de tarefas em processadores homog?neos de uma arquitetura alvo do tipo MPSoC baseado em NoC. Sendo estas atividades guiadas por requisitos de redu??o do consumo de energia e balanceamento de carga, e delimitadas por restri??es de m?ximo consumo de energia, m?xima carga de processamento e m?ximas ?reas de dados e c?digo associadas a cada processador. O trabalho mostra a complexidade das atividades de particionamento e mapeamento, separadas e conjuntamente. Mostra tamb?m que o mapeamento ? mais eficiente na redu??o de consumo de energia, quando comparado com o particionamento, mas mesmo assim o efeito do particionamento n?o pode ser negligenciado. Al?m disto, o efeito conjunto de ambas as atividades reduz em m?dia 37% o consumo de energia. O mapeamento, quando realizado em tempo de execu??o, pode ser pouco eficiente, devido ao tempo ex?guo e ao grande n?mero de solu??es a serem exploradas. Utilizando uma abordagem que aplica um particionamento est?tico anterior ao mapeamento din?mico, permite obter mapeamentos mais eficientes. Isto porque o particionamento est?tico de tarefas em grupos reduz o espa?o de busca que o mapeamento necessita realizar. Experimentos com v?rias aplica??es sint?ticas e quatro aplica??es embarcadas mostram que a redu??o m?dia do consumo de energia ? de 23,5%. Este trabalho apresenta o framework PALOMA que realiza o particionamento de tarefas em grupos e o framework CAFES para fazer o mapeamento destes em posi??es da arquitetura alvo, onde cada posi??o cont?m um processador. Estas atividades permitem planejar sistemas com menor consumo de energia, mais velozes e em tempo de projeto aceit?vel
1022

MIBCIS II - processo integrado de gerenciamento quantitativo para melhoria de processos

Romeu, Leonardo da Silva 30 April 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:43Z (GMT). No. of bitstreams: 1 437797.pdf: 3742513 bytes, checksum: 02894ca627a412c4bb787f711e1f4e25 (MD5) Previous issue date: 2009-04-30 / Quality is nowadays the biggest concern in all human activities areas and it could not be different on the information system area, more specifically on software development. During the last years there have been many discussions about poor quality and low productivity in worldwide software industry which reflects on customer dissatisfaction and financial losses of huge proportions. In this context, defining methodologies to discipline the software development process is a critical factor of success. Besides that, process improvement mechanisms are also needed to allow organizational growth and achievement of performance optimization. The goal of this master thesis is to propose a process of quantitative management for process improvement. This proposal aims to contribute to the software engineering area through the specification of an integrated process among BSC, CMMI and Six Sigma using a proper tool to define processes. Besides, this study shows new empirical data an also aims to contribute to software engineering through applying qualitative research methods. Empirical data were obtained from a case study conducted in a software development organization located in Brazil. / A qualidade ? hoje o grande motivador em todas as ?reas da atividade humana e n?o poderia ser diferente na ?rea de sistemas de informa??o, mais especificamente no desenvolvimento de software. Atualmente ? muito discutido acerca da baixa qualidade e produtividade da ind?stria mundial de software, refletindo na insatisfa??o dos seus usu?rios e em preju?zos financeiros de enormes propor??es. Neste contexto, a defini??o de metodologias para disciplinar o processo de desenvolvimento de software ? fator cr?tico de sucesso para as organiza??es. Al?m disso, s?o necess?rios mecanismos de melhoria de processos para permitir a evolu??o das organiza??es que buscam n?veis ?timos de desempenho. Nesse sentido, esta disserta??o de mestrado tem como objetivo propor um processo de gerenciamento quantitativo para melhoria de processos. Esta proposta visa contribuir para ?rea de engenharia de software atrav?s da especifica??o de um processo de integra??o entre BSC, CMMI e Six Sigma utilizando uma ferramenta pr?pria para defini??o de processos. Al?m disso, este estudo apresenta novos dados emp?ricos e busca contribuir tamb?m para a pesquisa na ?rea de engenharia de software, atrav?s do emprego de m?todos qualitativos de pesquisa cient?fica. Os dados emp?ricos da pesquisa foram obtidos atrav?s de estudo de caso realizado em uma empresa de desenvolvimento de software localizada no Brasil.
1023

Estrat?gias de paraleliza??o para renderiza??o de documentos XSL-FO com uso da ferramenta FOP

Zambon, Rog?rio Timmers 27 January 2006 (has links)
Made available in DSpace on 2015-04-14T14:49:44Z (GMT). No. of bitstreams: 1 387162.pdf: 6010910 bytes, checksum: 801b7923a4a58c8368c1c2595915b829 (MD5) Previous issue date: 2006-01-27 / Grandes volumes de trabalho para impress?o s?o cada vez mais comuns devido ao aumento da demanda por documentos personalizados. Neste contexto, Impress?o de Dados Vari?veis (Variable Data Printing - VDP) tornou-se uma ferramenta muito ?til para profissionais de marketing que necessitam personalizar mensagens para cada cliente em materiais promocionais e campanhas de publicidade. VDP permite a cria??o de documentos baseados em um modelo (template) contendo partes est?ticas e vari?veis. A ferramenta de renderiza??o deve ser capaz de transformar a parte vari?vel em um formato composto, ou PDL (Page Description Language) tais como PDF (Portable Document Format), PS (PostScript) ou SVG (Scalable Vector Graphics). A quantidade de conte?do vari?vel em um documento? totalmente dependente do modelo (layout) da publica??o definido por um profissional da ?rea. Al?m disso, o conte?do vari?vel a ser renderizado pode variar de acordo com os dados lidos do banco de dados. Desta forma, este processo? chamado repetidamente e pode tornar-se facilmente um gargalo, especialmente em um ambiente de produ??o comprometendo inteiramente a gera??o de um documento. Neste cen?rio, t?cnicas de alto desempenho aparecem como uma interessante alternativa para aumentar o rendimento da fase de renderiza??o. Este trabalho introduz uma solu??o paralela port?vel e escal?vel para a ferramenta de renderiza??o chamada FOP (Formatting Objects Processor), a qual ? usada para renderizar o conte?do vari?vel expresso em linguagem XSL-FO (eXtensible Stylesheet Language-Formatting Obects).
1024

FReMI: a middleware to handle molecular docking simulations of fully-flexible receptor models in HPC environments

De Paris, Renata 12 April 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:44Z (GMT). No. of bitstreams: 1 438211.pdf: 1765612 bytes, checksum: c7adb8a9601c78a38e044070d6b5568e (MD5) Previous issue date: 2012-04-12 / Simula??es de docagem molecular de modelos de receptores totalmente flex?veis (Fully-Flexible Receptor - FFR) est?o se tornando cada vez mais frequentes. Entretanto, tais simula??es exigem alto n?vel de processamento e sua execu??o sequencial pode se tornar uma tarefa impratic?vel. Este trabalho apresenta um middleware, chamado Middleware de Receptores Flex?vel (Flexible Receptor Middleware FReMI), que auxilia a reduzir o tempo total de execu??o nas simula??es de docagem molecular de receptores totalmente flex?veis. FReMI manipula uma quantidade intensiva de dados e tarefas para executar a triagem virtual de modelos de receptores totalmente flex?veis, e prov? interoperabilidade entre o web workflow de docagem de receptores flex?veis (Web Fully-flexible Docking Workflow - W-FReDoW) e dois diferentes ambientes de alto desempenho (High Performance Computing HPC). FReMI utiliza protocolos de internet para comunicar com o W-FReDoW , o qual auxilia na redu??o da dimens?o do modelo FFR por meio de um padr?o de dados. Al?m disso, FReMI envia tarefas de simula??es de docagem para serem executadas em um cluster dedicado e tamb?m em um alternativo modelo de cluster virtual constru?do por meio de nuvens de computadores el?sticos da Amazon (Amazon s Elastic Compute Cloud EC2). Os resultados apresentam uma arquitetura conceitual do FReMI e dois conjuntos de experimentos a partir da execu??o do FReMI. O primeiro conjunto relatou os experimentos realizados com FReMI, usando uma amostra de snapshots a partir de um modelo FFR e os dois ambientes HPC. O segundo conjunto descreveu os experimentos, com um conjunto de dados completo, executando FReMI e W-FReDoW apenas em um ambiente de cluster MPI constru?do com as inst?ncias da Amazon EC2. Os resultados do ?ltimo conjunto de experimentos apresentaram uma redu??o na dimensionalidade do modelo FFR, transformando ele um modelo de receptor flex?vel totalmente reduzido (Reduced Fully-Flexible Receptor Model RFFR), por meio do descarte de conforma??es n?o promissoras identificadas pelo W-FReDoW. Al?m disso, a redu??o do tempo total de execu??o do FReMI com o W-FReDoW foi entre 10 a 30% a partir da execu??o separada do FReMI, e de aproximadamente 94% do FReMI a partir da sua respectiva execu??o sequencial. / Molecular docking simulations of Fully-Flexible Protein Receptor (FFR) models are coming of age. However, they are computer intensive and their sequential execution can became an unfeasible task. This study presents a middleware, called Flexible Receptor Middleware (FReMI), to assist in faster docking simulations of flexible receptors. FReMI handles intensive tasks and data of totally fully-flexible receptor models in virtual screening and, provides the interoperability between a Web Fully-flexible Docking Workflow (W-FReDoW) and two different High Performance Computing (HPC) environments. FReMI uses internet protocols to communicate with W-FReDoW which helps to reduce the FFR model dimension with a data pattern. Also it sends tasks of docking simulations to execute in a HPC of dedicated cluster and; an alternative model of virtual cluster built on Amazon s Elastic Compute Cloud (EC2). The results are the FReMI conceptual architecture and two sets of experiments from execution of the FReMI. The first set reports the experiments performed with FReMI using a sample of snapshots from a FFR model on both HPC environments. The second one describes the experiments, on the complete data set, performed with FReMI and W-FReDoW shared execution in a MPI cluster environment on Amazon EC2 instances only. The last set of experiments results shows a reduction of the FFR model dimensionality, transforming it into a Reduced Fully-Flexible Receptor (RFFR) model, by discarding the non-promising conformations generated by W-FReDoW. It also reduces the total execution time to between 10-30% of that of FReMI s only execution, which, in turn, decreased near 94% with respect to the serial execution.
1025

Um estudo sobre a predi??o da estrutura 3D aproximada de prote?nas utilizando o m?todo CReF com refinamento

Dall"agno, Karina Cristina da Motta 22 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:45Z (GMT). No. of bitstreams: 1 438289.pdf: 4232980 bytes, checksum: 881bd64c55df7a95a458dac98379df88 (MD5) Previous issue date: 2012-03-22 / One of the most important problems in Structural Bioinformatics is to understand how the information coded in linear sequence amino acids, or primary structure, is translated into the three-dimensional structure of a protein. Many algorithms proposed solutions to this complex problem of NP-complete class. One of them is the CReF method (Central Residue Fragment-based) which makes prediction of approximate 3-D structure of proteins and polypeptides. The method uses data mining techniques to group data structures, showing good secondary structure prediction, good performance at low machine cost, but has problems in the prediction of turns and loops regions and usability. Valuing the different characteristics of CReF and seeking to evolve it, this work proposes improvements to CReF. After the initial stage of understanding the tool and making changes to turn it executable on the current state of data banks and support tools, two categories of improvements to make were identified. The technical improvements aimed to automate CReF, adapting it to the environment and emphasizing usability. In the method‟s improvements variations on the amount of groups were tested for data mining with the Expectation Maximization algorithm in Weka. Tests indicated that the best results for the initial conformation were for four and six groups, hence we decided to allow the user to select the amount of groups. A new mapping of the data in the Ramachandran plot indicated some problems that had to be fixed. In the analysis of data mining results, we decided that groups in regions not allowed would be discarded. The new version of CReF generated by the implementation of these improvements standardized the method of secondary structure prediction to use Porter. As a consequence, the rules of selection of data mining groups to represent each amino acids have been changed and extended. The new version has the same initial performance of CReF in prediction and execution, however, the problem of correct predictions of turns and loops remained. This problem was addressed through a refinement protocol, based on simulations by the molecular dynamics method, which presented a significant result for the target protein 1ZDD. / Um dos principais desafios da Bioinform?tica Estrutural ? entender como a informa??o decodificada em uma sequ?ncia linear de amino?cidos, ou estrutura prim?ria de uma prote?na, possibilita a forma??o de sua estrutura tridimensional. Muitos algoritmos buscam propor solu??es para o problema complexo da classe NP-completo. Dentre eles, est? o m?todo CReF (Central Residue Fragment-based method) que realiza a predi??o da estrutura 3D aproximada de prote?nas ou polipept?dios. O m?todo usa t?cnicas de minera??o de dados para agrupar dados de estruturas, apresentando boa predi??o de estruturas secund?rias, bom desempenho em m?quina de baixo custo, mas enfrenta problemas na predi??o das regi?es de voltas e al?as e na usabilidade. Valorizando as caracter?sticas diferenciadas do m?todo e buscando sua evolu??o, este trabalho prop?s-se a realizar melhorias no CReF. Ap?s uma etapa inicial de entendimento e adapta??es para tornar a ferramenta execut?vel na situa??o atual dos bancos de dados e ferramentas de apoio, foram identificadas duas categorias de melhorias. As melhorias t?cnicas tiveram por objetivo automatizar a ferramenta, adapt?-la ao ambiente e ao usu?rio enfatizando usabilidade. Para melhorias no m?todo realizaram-se testes com varia??o na quantidade de grupos identificados na etapa de minera??o de dados com o algoritmo Expectation Maximization (EM) no Weka. Os testes indicaram que as melhores conforma??es iniciais eram obtidas com quatro e seis grupos, assim, optou-se por permitir ao usu?rio a escolha dos grupos a considerar. Um novo mapeamento do mapa de Ramachandran indicou ajustes que foram corrigidos e decidiu-se descartar grupos identificados nas regi?es n?o permitidas na an?lise do resultado da minera??o de dados. A nova vers?o do CReF, gerada pela implementa??o dessas melhorias, tamb?m padronizou o m?todo de predi??o de estrutura secund?ria, passando a utilizar o m?todo Porter. Como consequ?ncia, as regras para escolha do grupo resultante da minera??o a representar cada amino?cido foram adaptadas e ampliadas para atender novas situa??es. A nova vers?o manteve o desempenho de predi??o e execu??o iniciais do CReF, entretanto, manteve o problema das voltas e al?as. Este problema de otimiza??o das regi?es de voltas e al?as foi endere?ado por meio do desenho e aplica??o de um protocolo de refinamento, baseado em simula??es pelo m?todo da din?mica molecular, o qual apresentou um resultado expressivo para a prote?na alvo de c?digo PDB 1ZDD.
1026

Transforma??o de modelos de processos de neg?cio em BPMN para modelos de sistema utilizando casos de uso da UML

Heredia, Leonardo Rodriguez 26 January 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:45Z (GMT). No. of bitstreams: 1 438602.pdf: 1994981 bytes, checksum: a5439343e1d91aaf3b5b229c798861a5 (MD5) Previous issue date: 2012-01-26 / The business processes models designed by business analysts act as requirement source to model information systems that may give support to these business processes. Transforming a business process model into a system model is not simple. The notation or language used to design business process model is different from the one used to design the system model. Today, BPMN is the pattern to build process models and UML is the pattern to design system models. The goal of this research is to present a method that helps the transformation business process model created in BPMN to system model using UML use cases. The transformation occurs through analysis of how each business element from a BPMN diagram can result in UML use cases elements. The method presents many alternatives to transform a BPMN element into a UML use case, by identifying the relationships and the initial information of cases descriptions / Os modelos de processos de neg?cio definidos pelos analistas de neg?cio servem como fonte de requisitos para a modelagem dos sistemas de informa??o que podem ser constru?dos para dar suporte a esses processos. A transforma??o de um modelo em n?vel de neg?cio para um modelo em n?vel de sistema n?o ? trivial. A nota??o ou linguagem utilizada para modelar o neg?cio ? diferente da utilizada para modelar sistema. Atualmente a BPMN ? a nota??o padr?o para constru??o de modelos de processos de neg?cio e a UML ? a linguagem padr?o para modelagem de sistemas. O objetivo desse trabalho ? apresentar um m?todo que auxilie na transforma??o de modelos de processos de neg?cio feitos em BPMN para modelos de sistema utilizando casos de uso da UML. A transforma??o ? realizada atrav?s da an?lise de como cada elemento de um diagrama BPMN pode dar origem a elementos de casos de uso da UML. O m?todo apresenta diferentes possibilidades de transformar um elemento da BPMN em casos de uso da UML, identificando os relacionamentos e informa??es iniciais da descri??o dos casos de uso
1027

Um processo de aquisi??o e mapeamento de dados para as bacias sedimentares marginais brasileiras

Assun??o, Joaquim Vinicius Carvalho 27 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:46Z (GMT). No. of bitstreams: 1 438673.pdf: 13692914 bytes, checksum: 3eac0c3d5df974b8965fd601f06ddf20 (MD5) Previous issue date: 2012-03-27 / Finding oil is a hard task that requires large amounts of information and resources. Along decades of research, geoscientists from Petrobras have accumulated great amout of data. Therefore, in petroleum geology other sources of important data are generally dispersed and have many forms of representation. This Master Thesis reports the creation of a database that stored various geophysical, paleogeographic and paleoclimatic data from the South Atlantic. Great part of these data were extracted from stratigraphic charts, converted, and stored as a numeric model. This model is the result of an aggregation of data from the Brazilian Sedimentary Basins and the creation of an algorithm solution able to map collected data at the designated geographical area. These data cover the past 140 millions years. The 140 millions of years correspond to a drift period of the South American Plate from the African west coast to the present location. During this drift several natural changes happened in the Ocean Sedimentary Basins until they reached the actual state. The grouping of these data enhances the potential to knowledge discovery on the factors necessary for the deposit of organic matter and oil generation, in consequence, these new factors may improve the chances of finding oil. / Encontrar petr?leo ? uma tarefa dif?cil que requer grandes quantidades de informa??es e recursos. Ao longo de d?cadas de pesquisa, os ge?logos da Petrobras acumularam grandes quantidades de dados. Al?m disso, na geologia do petr?leo outras fontes de dados s?o importantes, fontes estas, que em geral est?o dispersas e possuem v?rias formas de represen??o. Esta disserta??o relata a cria??o de um banco de dados que agrega diversos dados de origem paleoclim?tica e paleogeogr?fica provenientes do Atl?ntico Sul. Grande parte destes dados foram extra?dos de cartas estratigr?ficas, convertidos e armazenados em forma de um modelo num?rico. Modelo este, que ? resultado de agrega??es de dados provenientes das bacias sedimentares brasileiras e da cria??o de uma solu??o algor?tmica capaz de mapear os dados coletados ao longo da ?rea designada. Estes dados s?o relativos a um per?odo de tempo entre a idade geol?gica atual at? 140 milh?es de anos atr?s. Os 140 milh?es de anos correspondem ao per?odo de deslocamento do continente Sul-Americano desde a costa da ?frica at? a posi??o atual. Durante esse deslocamento houveram diversas mudan?as naturais nas bacias sedimentares oce?nicas at? chegarem ao estado atual. O grupamento destes dados potencializa a descoberta de conhecimento relativo aos fatores necess?rios para a deposi??o de mat?ria org?nica e gera??o de petr?leo no fundo do mar, assim, estes novos fatores podem vir a melhorar as probabilidades de descoberta de petr?leo.
1028

A framework for integrating interaction design and agile methods

Silva, Tiago Silva da 22 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:46Z (GMT). No. of bitstreams: 1 438706.pdf: 5157206 bytes, checksum: c5422795c48935a5ef9a79af5999aa0c (MD5) Previous issue date: 2012-03-22 / Desenvolvimento ?gil tem estado em evid?ncia no que diz respeito ? processos de desenvolvimento de software. Juntamente com o crescimento da conscientiza??o sobre a import?ncia de uma boa Experi?ncia de Usu?rio surgiu a necessidade de integrar estas duas ?reas. Entretanto, o desenvolvimento ?gil possui uma cultura distinta que, num primeiro momento, parece entrar em conflito com o Design Centrado no Usu?rio. Assim, a integra??o destas duas ?reas torna-se um desafio. Esta tese focaliza na integra??o destas duas ?reas, fornecendo um conjunto de pr?ticas e artefatos para apoiar equipes ?geis e Designers de Intera??o a superar tal desafio. Uma Revis?o Sistem?tica foi realizada a fim de identificar propostas de integra??o de m?todos ?geis e Design de Intera??o. Com base na reuni?o das pr?ticas e artefatos mais comuns identificados na revis?o, um framework foi proposto. A fim de verificar tal proposta, Pesquisas-A??o foram realizadas em duas organiza??es de dois diferentes pa?ses. Desta forma, o resultado desta pesquisa ? a proposta de um framework para integrar Design de Intera??o e desenvolvimento ?gil. / Agile development has become mainstream regarding software development processes. Along the increasing understanding of the importance of good User eXperience came the need to integrate these two areas. However, Agile development have a distinct culture that at first glance seems to conflict with User-Centered Design. Therefore, integrating these two areas becomes a challenging task. This thesis focuses on integrating these areas, providing a set of practices and artifacts to support Agile teams and Interaction Designers to overcome this challenge. A Systematic Literature Review was conducted in order to identify existing approaches regarding the integration of Agile and Interaction Design. A framework was proposed gathering the most common practices and artifacts identified in this review. Conducting Action Research in two companies from two different countries tried out this proposal. Thus, the result of this research is a framework proposal for integrating Interaction Design and Agile Development.
1029

Recomenda??o de tags para m?dia social colaborativa: da generaliza??o ? personaliza??o

Ziesemer, Angelina de Carvalho A. 20 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:47Z (GMT). No. of bitstreams: 1 438773.pdf: 3581155 bytes, checksum: 8bd17c869fd04adc206bbbcd32f4b1dd (MD5) Previous issue date: 2012-03-20 / Social media systems such as Flickr, Youtube and Picasa have become very popular as they provide a collaborative environment to share photos and videos supporting tags, ratings and comments. This kind of interaction includes a lot of content provided by users, which may bring meaningful information to recommendation systems. The aggregation of tags is also a way to cluster items and provide tag-based search content. We investigate how to support tag recommendation by ranking the co-occurrence, popularity and relevance of commonly-used tags in similar items and by similar users. We developed a tag recommendation system to recommend of possibly relevant tags. We use Flickr s dataset to analyze our algorithm s behavior and present the results provide by the experiment. A new model using personalized recommendation was developed using the experiment results and the behavior of each user. / Sistemas de m?dia social como Flickr, Youtube e Picasa tornaram-se muito populares devido ao seu ambiente para compartilhamento de imagens, v?deos e suporte ? atribui??o de tags, avalia??es e coment?rios. Sistemas colaborativos possuem grandes quantidades de conte?do provido pelos usu?rios, os quais fornecem informa??es relevantes para engines de recomenda??o. O uso de tags tamb?m permite a clusteriza??o e busca de conte?do baseado em palavras-chaves. Neste trabalho foi investigado um mecanismo para recomendar tags, desenvolvendo medidas de co-ocorr?ncia, popularidade e relev?ncia de tags comumente usadas em itens similares e por usu?rios similares. Foi desenvolvido um sistema para recomendar poss?veis tags relevantes baseadas na similaridade contextual de outras tags providas pelos usu?rios. Para o desenvolvimento do experimento, foi utilizado um dataset do Flickr para gerar recomenda??es e analisar o comportamento do algoritmo e as atribui??es efetuadas pelos usu?rios participantes. Os resultados obtidos demonstraram padr?es de atribui??o e desempenho de acordo com o conte?do/contexto da imagem. Utilizando a frequ?ncia de atribui??o baseada no hist?rico de cada perfil ? sugerido um novo modelo personalizado para recomenda??o de tags.
1030

Evaluation of system-level impacts of a persistent main memory architecture

Perez, Taciano 15 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:47Z (GMT). No. of bitstreams: 1 438861.pdf: 1222847 bytes, checksum: b54b23f85d4f13183371506695cec294 (MD5) Previous issue date: 2012-03-15 / Por cerca de 30 anos, os sistemas de mem?ria computacional t?m sido essencialmente os mesmos: tecnologias de mem?ria vol?til de alta velocidade como SRAM e DRAM utilizadas para caches e mem?ria principal; discos magn?ticos para armazenamento persistente; e mem?ria flash, persistente e de baixa velocidade, para armazenamento com caracter?sticas de baixa capacidade e baixo consumo de energia, tais como dispositivos m?veis e embarcados. Hoje est?o emergindo novas tecnologias de mem?ria n?o-vol?til, que prometem mudar radicalmente o cen?rio de sistemas de mem?ria. Neste trabalho s?o avaliados impactos (em n?vel de sistema) de lat?ncia e energia supondo um computador com mem?ria principal persistente usando PCRAM e Memristor. Os resultados experimentais suportam a viabilidade de se empregar tecnologias emergentes de mem?ria n?o-vol?til como mem?ria principal persistente, indicando que as vantagens de consumo de energia com rela??o a DRAM devem ser significativas. Esse estudo tamb?m compara o desenvolvimento de aplica??es usando tanto uma abordagem tradicional usando sistema de arquivos quanto utilizando um framework espec?fico para persist?ncia em mem?ria. Conclui-se que, para colher os principais benef?cios potencialmente oferecidos por mem?ria principal persistente, ? necess?rio utilizar novas abordagens de programa??o que n?o estabelecem uma separa??o entre mem?ria vol?til e armazenamento secund?rio. / For almost 30 years, computer memory systems have been essentially the same: volatile, high speed memory technologies like SRAM and DRAM used for cache and main memory; magnetic disks for high-end data storage; and persistent, low speed flash memory for storage with low capacity/low energy consumption requirements such as embedded/mobile devices. Today we watch the emergence of new non-volatile memory (NVM) technologies that promise to radically change the landscape of memory systems. In this work we assess system-level latency and energy impacts of a computer with persistent main memory using PCRAM and Memristor. The experimental results support the feasibility of employing emerging non-volatile memory technologies as persistent main memory, indicating that energy improvements over DRAM should be significant. This study has also compared the development and execution of applications using both a traditional filesystem design and a framework specific of in-memory persistence (Mnemosyne). It concludes that in order to reap the major rewards potentially offered by persistent main memory, it is necessary to take new programming approaches that do not separate volatile memory from persistent secondary storage.

Page generated in 0.1468 seconds