• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 415
  • 41
  • Tagged with
  • 456
  • 456
  • 426
  • 372
  • 371
  • 371
  • 369
  • 368
  • 278
  • 116
  • 104
  • 82
  • 71
  • 68
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Implementa??o e avalia??o de m?todos para confiabilidade de redes intra-chip

Silva, Alzemiro Henrique Lucas da 27 January 2010 (has links)
Made available in DSpace on 2015-04-14T14:49:30Z (GMT). No. of bitstreams: 1 430304.pdf: 2164502 bytes, checksum: db47a771a28123bb6c1aa5df3d495e3b (MD5) Previous issue date: 2010-01-27 / As inova??es na fabrica??o de circuitos integrados t?m reduzido continuamente o tamanho dos componentes, permitindo um aumento na densidade l?gica de sistemas eletr?nicos complexos, denominados SoCs (Systems‐on‐a‐Chip), mas afetando tamb?m a confiabilidade destes componentes. Barramentos globais utilizados para interconex?o de componentes em um chip est?o cada vez mais sujeitos aos efeitos de crosstalk, que podem causar atrasos e picos nos sinais. Este trabalho apresenta e avalia diferentes t?cnicas para toler?ncia a falhas em redes intra‐chip, nos quais a rede ? capaz de manter o mesmo desempenho da rede original mesmo na ocorr?ncia de falhas. Quatro t?cnicas s?o apresentadas e avaliadas em termos de consumo adicional de ?rea, lat?ncia dos pacotes, consumo de pot?ncia e an?lise de defeitos residuais. Os resultados demonstram que o uso de codifica??o CRC nos enlaces ? vantajoso quando o m?nimo acr?scimo de ?rea e consumo de pot?ncia ? o principal objetivo. Entretanto, cada um dos m?todos apresentados neste trabalho tem as suas pr?prias vantagens e podem ser utilizados dependendo da aplica??o alvo.
62

Explora??o da comunica??o usu?rio-sistema em sistemas de ajuda on-line

Santos Junior, Mauro Francisco dos 18 December 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:31Z (GMT). No. of bitstreams: 1 431695.pdf: 3670835 bytes, checksum: ab721b997ac63b711c5cd44a0727fd1a (MD5) Previous issue date: 2009-12-18 / Atualmente, o principal problema de sistemas de ajuda on-line ? que eles, geralmente, n?o se direcionam ?s necessidades espec?ficas do usu?rio. Apesar do grande avan?o dos sistemas computacionais, ainda se encontram poucas alternativas para os sistemas de ajuda. Novas abordagens se fazem necess?rias visto que as possibilidades destes sistemas de ajuda continuam sendo pouco explorados tanto por usu?rios finais quanto pelos designers. A partir de an?lises sobre novas abordagens para sistemas de ajuda e de entrevistas e sess?es de testes com usu?rio, este trabalho apresenta uma forma de organiza??o para as informa??es de ajuda de uma destas abordagens, no intuito de minimizar as dificuldades de intera??o que o usu?rio encontra.
63

Sele??o eficiente de conforma??es de receptor flex?vel em simula??es de docagem molecular

Machado, Karina dos Santos 31 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:32Z (GMT). No. of bitstreams: 1 432221.pdf: 7126072 bytes, checksum: 4f9458bc22424532f20fd0c85208b5c7 (MD5) Previous issue date: 2011-03-31 / O desenvolvimento de f?rmacos ? um dos grandes desafios da ci?ncia atual por se tratar de um processo onde os custos e o tempo envolvido s?o elevados. Um dos problemas mais interessantes nessa ?rea ? a predi??o da conforma??o e da energia envolvida na intera??o entre ligantes e suas prote?nas-alvo ou receptores. ? nos experimentos de docagem molecular que essa intera??o ? avaliada. ? muito comum que durante a docagem molecular se fa?am simplifica??es onde o receptor ? tratado como r?gido. Por?m, prote?nas s?o inerentemente sistemas flex?veis e essa flexibilidade ? essencial para a sua fun??o. A inclus?o da flexibilidade do receptor em experimentos de docagem molecular n?o ? uma tarefa trivial, pois, para permitir mobilidade a certos ?tomos do receptor, h? um aumento exponencial do n?mero de graus de liberdade a serem considerados. H? atualmente diversas alternativas para contornar esse problema, entre elas, a que se optou neste trabalho: considerar a flexibilidade expl?cita do receptor por meio da execu??o de uma s?rie de simula??es de docagem molecular, utilizando em cada um deles uma conforma??o diferente da trajet?ria din?mica do receptor, gerada por uma simula??o por din?mica molecular (DM). Um dos maiores problemas desse m?todo ? o tempo necess?rio para execut?-lo. Sendo assim, o objetivo desse trabalho ? contribuir para a sele??o de conforma??es do receptor de forma a acelerar a execu??o de experimentos de docagem molecular com o receptor completamente flex?vel. Al?m do mais, o trabalho apresenta novas metodologias para a an?lise da intera??o receptor-ligante em simula??es de docagem deste tipo. Para alcan?ar esses objetivos, ? aplicado um processo de descoberta de conhecimento. A primeira etapa consistiu no desenvolvimento de um banco de dados para armazenar informa??es detalhadas sobre o receptor e suas conforma??es, ligantes e experimentos de docagem molecular, chamado FReDD. Com os dados organizados no FReDD, foi poss?vel a aplica??o de diferentes t?cnicas de minera??o de dados. O primeiro conjunto de experimentos foi realizado utilizando o algoritmo de classifica??o J48. O segundo conjunto de experimentos foi executado com o algoritmo de regress?o M5P, onde apesar de resultados interessantes, a utiliza??o direta para sele??o de conforma??es em futuros experimentos de docagem molecular n?o se mostrou promissora. Finalmente, foram executados os experimentos de agrupamento com 10 diferentes algoritmos, com entradas variadas. Para os algoritmos de agrupamento foram desenvolvidas diferentes fun??es de similaridade onde os resultados finais utilizados em conjunto com o padr?o de dados P-MIA permitiu a redu??o efetiva da quantidade de experimentos de docagem
64

3D-Tri : um algoritmo de indu??o de ?rvore de regress?o para propriedades tridimensionais - um estudo sobre dados de docagem molecular considerando a flexibilidade do receptor

Winck, Ana Trindade 17 January 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:41Z (GMT). No. of bitstreams: 1 436381.pdf: 5238803 bytes, checksum: ca22d61f2fb4075e277ed531aee231ce (MD5) Previous issue date: 2012-01-17 / With the growth of biological experiments, solving and analyzing the massive amount of data being generated has been one of the challenges in bioinformatics, where one important research area is the rational drug design (RDD). The interaction between biological macromolecules called receptors, and small molecules called ligands, is the fundamental principle of RDD. In in-silico molecular docking experiments it is investigated the best bind and conformation of a ligand into a receptor. A docking result can be discriminated by a continue value called Free Energy of Binding (FEB). We are attempting on mining data from molecular docking results, aiming at selecting promising receptor conformations to the next docking experiments. In this sense, we have developed a comprehensive repository to store our molecular docking data. Having such repository, we were able to apply preprocessing strategies on the stored data and submit them to different data mining tasks. Among the techniques applied, the most promising results were obtained with regression model trees. Although we have already addressed important issues and achieved significant results, there are some properties in these experiments turning it difficult to properly select conformations. Hence, a strategy was proposed considering the three-dimensional (3D) properties of the receptor conformations, to predict FEB. This thesis presents the 3D-Tri, a novel algorithm able to handle and treat spatial coordinates in a x,y,z format, and induce a tree that predicts FEB value by representing such properties. The algorithm uses such coordinates to split a node in two parts, where the edges evaluate whether the atom being tested by the node is part of a given interval [(xi,xf );(yi,yf );(zi,zf )], where i indicates the initial position of the coordinate, and f its final position. The induced model can help a domain specialist to select promising conformations, based on the region of the atoms in the model, to perform new molecular docking experiments / Com o avan?o nos experimentos biol?gicos, a manipula??o e an?lise do grande volume de dadossendo gerados por esses experimentos t?m sido um dos desafios em bioinform?tica, onde umaimportante ?rea de pesquisa ? o desenho racional de f?rmacos (RDD - Rational Drug Desing). Aintera??o entre macromol?culas biol?gicas, chamadas de receptores, e pequenas mol?culas, chamadasligantes, ? o princ?pio fundamental do RDD. ? em experimentos in silico de docagem molecularque se investiga o melhor encaixe e conforma??o de um ligante em uma cavidade do receptor. Oresultado de um experimento de docagem pode ser avaliado a partir de um valor cont?nuo de energialivre de liga??o (FEB - Free Energy of Binding). Tem-se empregado esfor?os em minerar dados deresultados de docagem molecular, com o objetivo de selecionar conforma??es relevantes para reduziro tempo de futuros experimentos de docagem. Nesse sentido, foi desenvolvido um reposit?rio paraarmazenar todos os dados a respeito desses experimentos, em n?vel de detalhe. Com esse reposit?rio,os dados foram devidamente pr?-processados e submetidos a diferentes tarefas de minera??ode dados. Dentre as t?cnicas aplicadas, a que apresentou-se mais promissora para o tipo de dadossendo utilizado foi ?rvore de decis?o para regress?o. Apesar dos resultados alcan?ados por essesexperimentos serem promissores, existem algumas propriedades nos experimentos que dificultam aefetiva sele??o de conforma??es. Dessa forma, prop?e-se uma estrat?gia que considera as propriedadestridimensionais (3D) do receptor para predizer o valor de FEB. Assim, nesta Tese ? apresentadoo 3D-Tri, um algoritmo de indu??o de ?rvore de regress?o que considera essas propriedades 3D,onde essas propriedades s?o definidas como atributos no formato x,y,z. O algoritmo proposto fazuso dessas coordenadas para dividir um nodo em duas partes, onde o ?tomo sendo testado parao nodo ? avaliado em termos de sua posi??o em um bloco [(xi,xf );(yi,yf );(zi,zf )] que melhorrepresente sua posi??o no espa?o, onde i indica a posi??o inicial de uma coordenada, e f indicaa posi??o final. O modelo induzido pode ser ?til para um especialista de dom?nio para selecionarconforma??es promissoras do receptor, tendo como base as regi?es dos ?tomos que aparecem nomodelo e que indicam melhores valores de FEB
65

Distributed memory organization with support for data migration for noc-based MPSOCS / Organiza??o de mem?ria distribu?da com suporte ? migra?ao de dados para MPSOCS baseados em nocs

Chaves, Tales Marchesan 23 January 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:44Z (GMT). No. of bitstreams: 1 438252.pdf: 1960381 bytes, checksum: f2fbe64a6e6d4c7fc9e87728e86cb0b8 (MD5) Previous issue date: 2012-01-23 / The evolution in the deployment of semiconductor technology has enabled the development of System-on-Chip (SoCs) that integrate several processing elements (PEs) and memory modules in a single chip. SoCs that integrate several PEs are referred as Multiprocessor System-on-Chip (MPSoCs). As the number of PEs increases in an MPSoC, techniques that present low energy consumption, low latency and scalability become necessary. In NoC-based MPsoCs that adopt the Shared Memory model in the L2 cache, as the number of PEs increases, the number of accesses to memory modules also increases. This makes memory organization one of the most critical components of the system because it can present high energy consumption and high latency. Such factors may limit the use and scalability of MPSoC systems. Among the factors that contribute to increase latency and energy consumption in memory organizations are: the cache coherence protocol and the mapping of application's data. This work proposes the use of a cache memory organization that presents non-uniform access latency, where accesses to the L1 cache can target different L2 cache banks (NUCA non uniform cache access architecture), as a function of the address being accessed. Additionally, this work proposes the exploration of the physical services provided by the network-on-chip, such as multicast and priorities, to optimize the implementation of a directory-based cache coherence protocol. The obtained results show an average reduction of 39% in communication energy consumption and 17% reduction in latency for transactions of the cache coherence protocol when exploring NoC services. To improve placement of application's data, a data migration protocol is proposed. The goal of the protocol is to approximate L2 cache blocks to PEs that are mostly accessing it, moving blocks to a closer L2 cache bank, if available. By using a data migration protocol, an average reduction of 29% was obtained in the energy consumption of cache accesses. / O avan?o da tecnologia de semicondutores possibilitou o desenvolvimento de sistemas intra-chip (SoCs) que integram, em um mesmo chip, diversos elementos de processamento (PEs) e m?dulos de mem?ria. SoCs que possuem mais de um PE s?o denominados de sistemas intra-chip multiprocesados (MPSoCs). ? medida que o n?mero de PEs aumenta em um MPSoC, torna-se necess?rio o uso de t?cnicas que resultem em um baixo consumo de energia, baixa lat?ncia na comunica??o e escalabilidade. Em MPSoCs baseados em redes intra-chip, com blocos de mem?ria compartilhada (cache L2), o aumento no n?mero de PEs culmina no aumento da quantidade de acessos realizados a estes m?dulos. Isto torna a organiza??o de mem?ria um dos componentes mais cr?ticos destes sistemas, tendo em vista que a mesma pode apresentar um alto consumo de energia e alta lat?ncia de resposta. Fatores como estes podem limitar o uso e a escalabilidade destes sistemas. Dentre os fatores que afetam o consumo de energia e a lat?ncia da organiza??o de mem?ria de um MPSoC est?o: o protocolo de coer?ncia de cache e o mapeamento dos dados de aplica??es. Este trabalho prop?e a utiliza??o de uma organiza??o de mem?ria cache L1 que possui lat?ncia de acesso n?o uniforme, onde acessos realizados podem ser destinados a diferentes bancos de mem?ria cache L2 (NUCA non uniform cache access architecture). Al?m disso, o presente trabalho explora os servi?os f?sicos providos pela rede intra-chip, tais como multicast e prioridades, para otimizar a implementa??o de um protocolo de coer?ncia de cache baseado em diret?rio. Os resultados obtidos mostram uma redu??o m?dia de 39% no consumo de energia de comunica??o e 17% de lat?ncia em transa??es do protocolo de coer?ncia quando explorando servi?os f?sicos oferecidos pela rede intra-chip. Al?m disso, a fim de melhorar o posicionamento de dados de aplica??es, ? proposto um protocolo de migra??o de dados que posiciona os dados utilizados por uma regi?o de PEs em um banco de mem?ria cache L2 pr?ximo. Com a utiliza??o deste protocolo, ? poss?vel obter uma redu??o m?dia de 29% no consumo de energia nos acessos ? mem?ria cache L2.
66

Conjunto de caracter?sticas para teste de desempenho : uma vis?o a partir de ferramentas

Costa, Leandro Teodoro 08 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:52Z (GMT). No. of bitstreams: 1 440236.pdf: 2914899 bytes, checksum: 0abd44c7d4fad22c016e1558238096b2 (MD5) Previous issue date: 2012-03-08 / Currently, the development of systems in the software industry has increased. As far as the need of customers in automate their processes grows, their demand to improve the quality of computational systems also increases. In this sense, software testing has a fundamental role. Despite of the benefits provided by testing, most of it is performed manually and without a theoretical basis, making the testing activity slow and inefficacious. An alternative for solving this problem is the use of test automation tools. In addition to accelerate the work of testers, these tools provide a higher quality and efficiency for the testing process. However, even though these tools can make the testing process faster, the test case generation for them is performed manually. The ideal is to also automate the generation and execution of test cases for these tools. In order to overcome this limitation, this work proposes a set of features which includes the information necessary for the generation and execution of real test cases for performance testing tools. Based on information from this set, we developed plugins for a product line of tools for model-based testing called PLeTs (Product Line Testing Tools). These plugins implement the automatic generation and execution of test scripts and test scenarios using two performance testing tools, HP LoadRunner e Microsoft Visual Studio. In order to show the feasibility of the proposal of this work, we performed a case study, which is based on the automated generation and execution of test cases using products generated by the product line PLETs. / Atualmente, o desenvolvimento de sistemas por parte da ind?stria de software tem aumentado. Assim como a necessidade dos clientes em automatizar seus processos, cresce tamb?m a exig?ncia dos mesmos na melhoria da qualidade dos sistemas informatizados. Nesse sentido, o teste de software desempenha um papel fundamental. Apesar dos benef?cios que os testes proporcionam, a maioria deles ? realizada de forma manual e sem embasamento te?rico e fundamentado, tornando a atividade de teste lenta e ineficaz. Uma alternativa para a solu??o deste problema ? a utiliza??o de ferramentas de automatiza??o de teste. Essas ferramentas, al?m de agilizar o trabalho de uma equipe de testadores, prov?em maior qualidade e efic?cia para o processo de teste. Entretanto, ainda que essas ferramentas possam tornar o processo de teste mais r?pido, a cria??o de casos de teste para elas ? realizada manualmente. O ideal ? automatizar tamb?m o processo de cria??o e execu??o de casos de teste para essas ferramentas. Com o intuito de superar esta limita??o, este trabalho prop?e um conjunto de caracter?sticas que contempla as informa??es necess?rias para automatizar a gera??o e execu??o de casos de teste concretizados para ferramentas de automatiza??o de teste de desempenho. A partir das informa??es deste conjunto, foi realizada a implementa??o de plugins para uma linha de produto de ferramentas para teste baseado em modelos (Model-Based Testing - MBT) denominada PLeTs (Product Line Testing Tools). Estes plugins implementam a gera??o e a execu??o autom?tica de scripts e cen?rios de teste utilizando duas ferramentas de automatiza??o de teste de desempenho, HP LoadRunner e Microsoft Visual Studio. Com o objetivo de demonstrar a viabilidade da proposta deste trabalho foi definido um exemplo de uso, o qual se baseia na gera??o e execu??o automatizada de casos de teste utilizando os produtos gerados pela linha de produto PLeTs.
67

Obten??o dos par?metros do plano oclusal com m?todos de vis?o computacional

Vianna, Filipi Damasceno 10 August 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:57Z (GMT). No. of bitstreams: 1 445318.pdf: 1162939 bytes, checksum: bc5afbd6b0e554990f5c89cef7859875 (MD5) Previous issue date: 2012-08-10 / The occlusal plane is an imaginary plane that passes between the upper and lower dental arches and is used as reference for assessments in several kinds of dental treatment. The correct orientation of this plan is important for a successful treatment because it is from this orientation, for example, that a surgery can be planned. The treatment planning is often done, using virtual or physical models (plaster) to replicate the dental arches and the patient's teeth. This replication, however, reach the problem of how to register the patient?s occlusal plane orientation and transport it to the model. Motivated by this problem this paper has developed a process to obtain both an anthropometric reference, as the angles relating the occlusal plane to this reference. The process presented in this work is based on the application of computer vision techniques on two images of the patient's head, one from the front and another from the profile. It also presents a method to transport this information to a plaster model and virtual / O plano oclusal ? um plano imagin?rio que passa entre as arcadas dent?rias inferior e superior e ? utilizado como refer?ncia para avalia??es em diversos tipos de tratamentos odontol?gicos. A correta orienta??o deste plano ? importante para o sucesso do tratamento pois ? a partir deste, por exemplo, que uma cirurgia pode ser planejada. O planejamento dos tratamentos ? feito, com muita frequ?ncia, utilizando-se modelos f?sicos (de gesso) ou virtuais que replicam as arcadas dent?rias e os dentes do paciente. Esta replica??o, entretanto, esbarra no problema de como registrar no paciente a orienta??o do plano oclusal e transport?-la para o modelo. Motivado por este problema o presente trabalho desenvolveu um processo para obter tanto uma refer?ncia antropom?trica, quanto os ?ngulos que relacionam o plano oclusal ? esta refer?ncia. O processo apresentado neste trabalho ? baseado na aplica??o de t?cnicas de vis?o computacional sobre duas imagens fotogr?ficas da cabe?a do paciente, uma de frente e outra de perfil. Tamb?m ? apresentado um m?todo para o transporte destas informa??es para um modelo de gesso e virtual
68

Plets : a product line of model-based testing tools

Rodrigues, Elder de Macedo 21 August 2013 (has links)
Made available in DSpace on 2015-04-14T14:50:08Z (GMT). No. of bitstreams: 1 452835.pdf: 8269470 bytes, checksum: ab1e0cb4a21fcf269f8e7ac4dc9418f2 (MD5) Previous issue date: 2013-08-21 / Software testing is recognized as a fundamental activity for assuring software quality. Furthermore, testing is also recognized as one of the most time consuming and expensive activities of software development process. A diversity of testing tools has been developed to support this activity, including tools for Model-based Testing (MBT). MBT is a testing technique to automate the generation of testing artifacts from the system model. This technique presents several advantages, such as, lower cost and less effort to generate test cases. Therefore, in the last years a diversity of commercial, academic, and open source tools to support MBT has been developed to better explore these advantages. In spite of the diversity of tools to support MBT, most of them have been individually and independently developed from scratch based on a single architecture. Thus, they face difficulties of integration, evolution, maintenance, and reuse. In another perspective, Software Product Lines (SPL) offers possibility of systematically generating software products at lower costs, in shorter time, and with higher quality. The main contribution of this Ph.D thesis is to present a SPL for testing tools that support MBT (PLeTs) and an automated environment to support the generation of these tools (PlugSPL). Furthermore, our strategy was initially applied to generate some MBT testing tools which were applied in two examples of use performed in collaboration of an IT company. Based on the feedback from the examples of use we can infer that SPL can be considered a relevant approach to improve productivity and reuse during generation of MBT testing tools. Moreover, we also performed an experimental study carried out to evaluate the effort to use an MBT tool derived from our SPL to generate test scripts and scenarios. Thus, the results point out that the effort to generate test scripts, when compared with a Capture and Replay based tool, was reduced considerably. / O teste de software ? uma atividade fundamental para garantir a qualidade de software. Al?m disso, teste de software ? uma das atividades mais caras e demoradas no processo de desenvolvimento de software. Por esta raz?o, diversas ferramentas de teste foram desenvolvidas para apoiar esta atividade, incluindo ferramentas para Teste Baseado em Modelos (TBM). TBM ? uma t?cnica de teste para automatizar a gera??o de artefatos de teste a partir de modelos do sistema. Esta t?cnica apresenta diversas vantagens, tais como, menor custo e esfor?o para gerar casos de teste. Por este motivo, nos ?ltimos anos, diversas ferramentas para TBM foram desenvolvidas para melhor explorar essas vantagens. Embora existam diversas ferramentas TBM, a maioria delas tem o seu desenvolvimento baseado em um esfor?o individual, sem a ado??o de t?cnicas de reuso sistem?tico e com base em uma ?nica arquitetura, dificultando a integra??o, evolu??o, manuten??o e reutiliza??o dessas ferramentas. Uma alternativa para mitigar estes problemas ? adotar os conceitos de Linhas de Produto de Software (LPS) para desenvolver ferramentas de TBM. LPS possibilitam gerar sistematicamente produtos a custos mais baixos, em menor tempo e com maior qualidade. A principal contribui??o desta tese de doutorado ? apresentar uma LPS de ferramentas de teste que suportam TBM (PLeTs) e um ambiente automatizado para apoiar a gera??o dessas ferramentas (PlugSPL). Al?m disso, esta tese apresenta uma abordagem para gerar ferramentas para TBM, que foram aplicadas em dois exemplos de uso. Com base nos resultados obtidos nos exemplos de uso, podemos inferir que LPS pode ser considerada uma abordagem relevante para melhorar a produtividade e o reuso durante a gera??o de ferramentas de TBM. Al?m disso, tamb?m foi realizado um estudo experimental com o objetivo de avaliar o esfor?o para se utilizar uma ferramenta derivada da PLeTs para gera??o de scripts de teste. Os resultados apontaram que o esfor?o para gerar scripts de teste foi reduzido consideravelmente, quando comparado com a uma ferramenta de Capture and Replay.
69

Avalia??o dos impactos de um novo paradigma de virtualiza??o de banco de dados

Lange, Timoteo Alberto Peters 30 August 2013 (has links)
Made available in DSpace on 2015-04-14T14:50:09Z (GMT). No. of bitstreams: 1 453303.pdf: 5877503 bytes, checksum: 864ef14a6664aa9942d6074775eee9e7 (MD5) Previous issue date: 2013-08-30 / Recent studies have demonstrated advantages in using Data Base Management System (DBMS) in virtual environments, like the consolidation of several DBMS isolated by virtual machines on a single physical machine to reduce maintenance costs and energy consumption. Furthermore, live migration can improve database availability, allowing transparent maintenance operations on host machines. However, there are issues that still need to be addressed, like overall performance degradation of the DBMS when running in virtual environments and connections instabilities during a live migration. In this context, new virtualization techniques are emerging, like the virtual database, which is considered a less intrusive alternative for the traditional database virtualization over virtual machines. This research analyzes aspects of this new virtualization approach, like performance and connection stability during a database migration process and its isolation capabilities. This evaluation shows very promising results compared to the traditional approach over virtual machines, including a more efficient and stable live migration, maintaining the required isolation characteristics for a virtualized DBMS. / Estudos recentes demonstraram vantagens na utiliza??o de Sistemas Gerenciadores de Banco de Dados (SGBD) em ambientes virtuais, como a consolida??o de v?rios SGBDs isolados por m?quinas virtuais em uma ?nica m?quina f?sica para reduzir os custos de manuten??o e consumo de energia. Al?m disso, a migra??o em tempo real pode melhorar a disponibilidade do banco de dados, permitindo que as opera??es de manuten??o sejam transparentes para os usu?rios. No entanto, h? quest?es que ainda precisam ser resolvidas, como a degrada??o do desempenho do SGBD quando executado em ambientes virtuais e a instabilidade das conex?es durante a etapa do migra??o do servi?o. Neste contexto, novas t?cnicas de virtualiza??o que est?o surgindo, como o banco de dados virtual, podem ser consideradas uma alternativa menos intrusiva para a virtualiza??o tradicional de SGBD sobre m?quinas virtuais. Esta pesquisa analisa os aspectos desta nova abordagem de virtualiza??o, como o desempenho, estabilidade de conex?o durante um processo de migra??o de banco de dados e a capacidade de isolamento. Este trabalho mostra resultados muito promissores em compara??o com a abordagem tradicional sobre m?quinas virtuais, incluindo uma migra??o em tempo real mais eficiente e est?vel, mantendo as caracter?sticas de isolamento necess?rios para um SGBD virtualizado.
70

Reconfigura??o din?mica de projetos de software : um modelo para integrar a ger?ncia de projetos de software com os fluxos organizacionais

Rosito, Maur?cio Covolan 23 January 2014 (has links)
Made available in DSpace on 2015-04-14T14:50:10Z (GMT). No. of bitstreams: 1 456907.pdf: 9611350 bytes, checksum: 197a790786cbbaceb61a7c4691134bcb (MD5) Previous issue date: 2014-01-23 / Software projects are very dynamic and require recurring adjustments of their project plans. These adjustments can be understood as reconfigurations in the schedule, in the resources allocation and other design elements. The large amount of information that the project manager must deal, combined with the frequent changes in the scope and planning, makes this activity more challenging. In addition, the manager may need to consult other departments in the organization during the execution of a software project. Based on these assumptions, a study was conducted to determine the state of the art of the dynamic reconfiguration of software projects, with emphasis on the integration of project management and organizational workflows, in order to identify the main gaps and challenges of research in this field. To reach this goal a methodology of systematic review was adopted. However, according to the analysis of the results, even the most recent studies did not present a solution that addresses all the problems of dynamic reconfiguration at the same time. In order to contribute to the solution of the noted difficulties, this thesis presents a computational model for dynamic reconfiguration of software projects at runtime, with specific focus on the integration of project activities with activities that are part of the organizational workflows. A software tool was developed to demonstrate and evaluate the results of an experimental study withpostgraduate students of project management. Moreover, this model considers the possibility to simulate software projects scenarios, using Petri nets, in response to events of project reconfiguration. / Projetos de software s?o muito din?micos e requerem recorrentes ajustes de seus planos de projeto. Estes ajustes podem ser entendidos como reconfigura??es na programa??o, aloca??o de recursos, entre outros elementos de design. A grande quantidade de informa??es que o gerente de projetos deve lidar, combinado com as frequentes mudan?as no escopo e planejamento, torna essa atividade ainda mais desafiadora. Al?m disso, o gerente pode precisar consultar outros departamentos da organiza??o durante o planejamento e a execu??o de um projeto de software. Com base nessas premissas, foi realizado um estudo para determinar o estado da arte sobre a reconfigura??o din?mica de projetos de software, com ?nfase na integra??o da ger?ncia de projetos e os fluxos organizacionais, a fim de identificar as principais lacunas e desafios de investiga??o nesta ?rea. Para alcan?ar este objetivo, foi adotada uma metodologia de revis?o sistem?tica. No entanto, conforme an?lise dos resultados, mesmo os trabalhos mais recentes n?o apresentaram uma solu??o que atenda todos os problemas da reconfigura??o din?mica ao mesmo tempo. A fim de contribuir para a solu??o das dificuldades verificadas, esta tese apresenta um modelo computacional para a reconfigura??o din?mica de projetos de software em tempo de execu??o, com foco na integra??o das atividades espec?ficas dos projetos com as atividades que fazem parte dos fluxos organizacionais. Uma ferramenta de software foi desenvolvida para demonstrar e avaliar os resultados de um estudo experimental realizado com estudantes de p?s-gradua??o em gest?o de projetos. Al?m disso, este modelo considera a possibilidade de simular cen?rios de projetos de software, utilizando redes de Petri, em resposta a eventos de reconfigura??o do projeto.

Page generated in 0.0211 seconds