• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • Tagged with
  • 9
  • 9
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Arquitetura GALS pipeline para criptografia robusta a ataques DPA e DEMA

Soares, Rafael Iankowski January 2010 (has links)
Made available in DSpace on 2013-08-07T18:42:32Z (GMT). No. of bitstreams: 1 000427630-Texto+Completo-0.pdf: 18134696 bytes, checksum: 015c9036f900684ae6a3ea0f2d593c32 (MD5) Previous issue date: 2010 / The last decades have witnessed the growth of the need for secure computing systems for either stocking or processing sensitive information. Currently, the Internet is a primary medium for performing numerous activities such as shopping, banking, stocking personal information, ticket reservation among others. The use of open networks to keep and process such information requires computing systems that may securely deal with confidential information. The design of Systems on Chip (SoCs) that fulfill security requirements requires special communication protocols and the use of cryptography, the science based on arithmetic to hide information. In general, SoCs that use cryptography employ a relatively short text, named cryptographic key, whose secrecy determines the efficiency of the information hiding process. In any cryptosystem, knowing the cryptographic key enables any operation on any information belonging to a given user in a given system. The design of cryptographic algorithms deems to resist to cryptanalysis, the science of breaking encrypted information by exploiting the vulnerabilities of the information hiding process. Although most current cryptographic algorithms are robust to attacks based on the mathematics of cryptography, a new class of cryptanalysis techniques, called Side Channel Attacks (SCAs) allows correlating sensitive information such as cryptographic keys with the physical properties, such as processing time, power consumption and electromagnetic radiation, of the electronic devices supporting such applications. The traditional design flow that uses the synchronous paradigm and CMOS technology favors the leak of information through side channels. The literature abounds with proposals to make cryptosystems robust against SCA attacks. Among the alternatives available to obtain secure cryptographic systems stand out paradigms such as the Globally Asynchronous Locally Synchronous (GALS) and the use of fully asynchronous systems. This thesis proposes a new GALS architecture to enhance the robustness of cryptographic algorithms. It assumes the use of pipelining and asynchronous communication between each pair of neighbor stages. The approach achieves robustness through a combination of hardware replication into pipeline stages, asynchronous communication between such stages and independent variation of operating frequencies at each stage of the pipeline. The results show increased robustness against power consumption and electromagnetic radiation analysis. Moreover, the proposed and prototyped architectures display a significant data throughput improvement, at the cost of increased latency and area, the later caused by the hardware replication strategy. Compared to state-of-art asynchronous logic secure cryptography, the area costs achieved in this thesis are smaller than, or in the worst case compatible to the best proposals, proving that this is an interesting alternative against SCA attacks. / As últimas décadas presenciam uma necessidade crescente por sistemas computacionais que garantam o sigilo de informações, seja durante o processamento ou armazenamento destas. Hoje são comuns atividades como compras, transações bancárias, consulta a informações pessoais e reserva de passagens usando a Internet. O uso de redes abertas exige a transmissão protegida de dados confidenciais. O projeto de sistemas integrados em um único chip (em inglês, SoCs) que atendam a restrições de segurança requer protocolos especiais de comunicação e o emprego de criptografia, a ciência que se baseia na aritmética para ocultar informações. Em geral, SoCs que usam criptografia utilizam um texto relativamente curto, denominado chave criptográfica, cujo segredo condiciona a eficiência do processo de esconder informações. Em todo sistema criptográfico moderno, conhecer a chave criptográfica equivale a ser capaz de efetuar qualquer operação sobre o conjunto de informações de um dado usuário em um dado sistema. Algoritmos de criptografia são desenvolvidos para resistir à criptoanálise, a ciência de violar textos encriptados explorando vulnerabilidades do processo de ocultação de informação. Embora a maioria dos algoritmos atuais seja robusta a ataques baseados na matemática da criptografia empregada, uma nova classe de técnicas de criptoanálise pode ser usada contra suas implementações. Estes são os chamados Ataques por Canais Escondidos ou Laterais (do inglês, Side Channel Attacks, ou SCA), que permitem correlacionar informações sigilosas tal como uma chave criptográfica com propriedades físicas tais como tempo de processamento, consumo de potência e radiação eletromagnética de dispositivos eletrônicos. O fluxo tradicional de projeto que usa o paradigma síncrono e a tecnologia CMOS favorece a fuga de informações por canais escondidos.Várias propostas para imunizar sistemas criptográficos contra ataques SCA existem na literatura. Dentre as alternativas para a obtenção de sistemas criptográficos seguros, destacam-se paradigmas de projeto específicos tais como o Globalmente Assíncrono e Localmente Síncrono (GALS) e o completamente assíncrono. Esta tese propõe uma nova arquitetura GALS para melhorar a robustez de algoritmos criptográficos. Pressupõe-se o emprego de técnicas pipeline e de comunicação assíncrona entre estágios. A robustez é obtida através da combinação de replicação de hardware em estágios pipeline, comunicação assíncrona entre estes estágios e variação independente da freqüência de operação em cada estágio. Os resultados obtidos demonstram um aumento da robustez contra análises de consumo de potência e de radiação eletromagnética nas arquiteturas propostas. Além disso, as arquiteturas apresentam um aumento significativo da vazão de dados, ao custo de um aumento da latência de processamento e da área do circuito, este último provocado pela replicação de hardware. Comparado com o estado da arte em propostas de lógica assíncrona segura, o custo em área mostra-se inferior ou no pior caso compatível, demonstrando que a proposta é uma alternativa interessante de solução para neutralizar ataques SCA.
2

Implementação e avaliação de algoritmo de auto-organização para uma arquitetura de rede sem fio baseada em árvore

Sieben, Felipe Groisman January 2015 (has links)
Made available in DSpace on 2015-05-29T12:49:49Z (GMT). No. of bitstreams: 1 000469318-Texto+Completo-0.pdf: 5158294 bytes, checksum: aacfc4fbbf492486e6befc63afe0d601 (MD5) Previous issue date: 2015 / Improvements in Wireless Sensor Networks (WSNs) are constantly being proposed and one of the challenges is to develop the ability to create smarter dynamics so that it can adapt to the needs that arise in the environment. This work proposes three algorithms for networks based on tree topology: (i) Reorganization of Optimal Power algorithm, (ii) Best Channel Choice Based on ScanED algorithm and (iii) Self-Organizing algorithm, which is the result of the implementation of the first two simultaneously. This last algorithm makes decisions based on metrics such as LQI, RSSI, transmission power, operation channel, CCA and energy detected in channel. The benefits of using this algorithm are: (i) reduction of energy consumption, (ii) reduction of electromagnetic interference in the environment, (iii) achieving a more suitable topology for the needs of the WSN, (iv) reduction of the communication error rate, thus reducing collisions and retransmission of frames, and (v) periodic selection of a clean channel to operate. / Redes de Sensores Sem Fio (RSSFs) estão em constante desenvolvimento e entre as melhorias propostas está o suporte ao comportamento dinâmico dos sensores, para que possam se adaptar às necessidades que surgem no ambiente. Neste trabalho são propostos três algoritmos para redes com topologia em forma de árvore, denominados de: (i) algoritmo de Reorganização de Potência Ótima (RPO), (ii) algoritmo de Escolha do Canal de Operação Baseado no ScanED (ECOBS) e (iii) algoritmo de Auto-organização (AO), que é o resultado da execução dos dois primeiros simultaneamente. Este último algoritmo toma decisões baseado nas métricas LQI, RSSI, potência de transmissão, canal de operação, CCA e energia detectada no canal. Como benefícios da utilização deste algoritmo são ressaltados: (i) a redução do consumo de energia, (ii) a diminuição da interferência eletromagnética no ambiente, (iii) o alcance de uma topologia mais adequada para as necessidades da RSSF, (iv) a diminuição da taxa de erros de comunicação, reduzindo as colisões e retransmissões de frames, e (v) a seleção periódica do canal mais limpo para operar.
3

Um algoritmo evolutivo para indução de árvores de regressão robusto a valores ausentes

Blomberg, Luciano Costa January 2014 (has links)
Made available in DSpace on 2014-09-23T02:01:03Z (GMT). No. of bitstreams: 1 000461465-Texto+Completo-0.pdf: 5428729 bytes, checksum: d0627f774922501baa685975c40465f5 (MD5) Previous issue date: 2014 / A common concern in many fields of knowledge involves problems of low quality data, such as noise and missing data. In the machine learning area, for example, missing data has generated serious problems in the knowledge extraction process, hiding important information about the dataset, skewing results and affecting the accuracy of the induced models. In order to deal with these problems, much has been discussed in the literature about missing values treatment strategies, either by preprocessing tasks or by the implementation of robust algorithms to missing data. In this thesis, we introduce a new evolutionary algorithm for induction of regression trees, including multiple strategies in its evolutionary cycle for dealing with missing data. Aiming to make a comparative analysis, we evaluated six traditional regression algorithms over 10 public datasets artificially modified to present different levels of missing data. Results from the experimental analysis show that the proposed solution presents a good trade-off between model interpretability and predictive performance, especially for datasets with more than 40% of missing data. / Uma preocupação comum em muitas áreas do conhecimento envolve problemas de baixa qualidade de dados, tais como ruídos e dados ausentes. Na área de aprendizado de máquina, por exemplo, dados ausentes têm gerado sérios problemas no processo de extração de conhecimento, ocultando importantes informações sobre o dataset, enviesando resultados e afetando o desempenho preditivo dos modelos induzidos. Para lidar com esse problema, muito tem se discutido na literatura sobre estratégias de tratamento, seja por préprocessamento ou por meio do desenvolvimento de algoritmos robustos a dados ausentes. Neste trabalho, propõe-se um novo algoritmo evolutivo para indução de árvores de regressão, agregando em seu ciclo evolutivo múltiplas estratégias para lidar com dados ausentes. Com o objetivo de fazer uma análise comparativa, foram avaliados 6 tradicionais algoritmos de regressão, considerando para tanto, 10 datasets artificialmente modificados para manterem diferentes níveis de dados ausentes. Resultados da análise experimental mostram que a solução proposta apresenta uma boa relação custo-benefício entre compreensibilidade dos modelos e desempenho preditivo, especialmente para as bases de dados com mais de 40% de dados ausentes.
4

Saturação de fluxos no sistema de transmissão em função da geração de potencia ativa

Souza, Carlos Rodrigues de, 1944- 15 July 2018 (has links)
Orientador: Hermano Medeiros Ferreira Tavares / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia / Made available in DSpace on 2018-07-15T13:06:39Z (GMT). No. of bitstreams: 1 Souza_CarlosRodriguesde_M.pdf: 2041617 bytes, checksum: daca38d2468e7ace0fd34682817c19ac (MD5) Previous issue date: 1977 / Resumo: Algoritmos de programação linear e de programação linear por partes foram preparados para a aplicação em alguns aspectos do planejamento da expansão dos sistemas de potência e, no que diz respeito a operação desses sistemas, em remanejamento de geração de potência ativa associado, quando neces¬sário, a corte nas demandas (load shedding) ou à utilização da inércia térmica das linhas de transmissão, visando obter um modo de operação satisfatório / Abstract: Upper bounded variables linear programming and piecewise linear programming algorithms have been prepared for application in some system planning aspects and for use in real power generation rescheduling related, if necessary, to load shedding or to the utilization of heat capacity of some transmission lines in order to get to a satisfactory operating condition / Mestrado / Mestre em Engenharia Elétrica
5

Um estudo sobre migração de páginas no Linux

Tesser, Guilherme Antônio Anzilago January 2006 (has links)
Made available in DSpace on 2013-08-07T18:42:31Z (GMT). No. of bitstreams: 1 000392134-Texto+Completo-0.pdf: 2697824 bytes, checksum: b47a0044cf99f8b121575ecdcc645a3a (MD5) Previous issue date: 2006 / This work discusses the performance of memory migration algorithms on NUMA machines. lt presents a brief description of the Linux memory management algorithm and also the memory migration algorithms proposed (Jull migration and on demand migration). In order to compare the memory migration strategies a simulation model was used. At the end of this dissertaiion a set of results acquired from the simulation model is presented. This results were obtained for two actual computers: SGl Altix and HP Superdome. / Este trabalho discute o desempenho de algoritmos de migração de memória em computadores do tipo NUMA. É apresentada uma breve descrição do algoritmo de gerenciamento de memória do Linux e, também, dos algoritmos de migração de memória propostos (migração total e migração sob demanda). Em seguida, é descrito o modelo de avaliação de desempenho. Neste trabalho, foi usado modelo de simulação com o desenvolvimento de um simulador que modela os algoritmos de gerência de memória do Linux e os algoritmos de migração de memória propostos. No final, são apresentados os resultados obtidos com o uso de migração de memória, que mostraram que há melhor desempenho quando comparado com o atual algoritmo de gerenciamento de memória do Linux.
6

Algoritmos de escalonamento para grades computacionais voltados à eficiência energética

Teodoro, Silvana January 2013 (has links)
Made available in DSpace on 2013-08-07T18:42:54Z (GMT). No. of bitstreams: 1 000448653-Texto+Completo-0.pdf: 3845852 bytes, checksum: 42fed21d426d0772e6f918691f47833c (MD5) Previous issue date: 2013 / Recent advances in High Performance Computing have opened a wide range of new research opportunities. Modern parallel and distributed architectures present each time more and more processing units seeking for a higher computational power. At the same time, the gain of performance obtained with those platforms is followed by an increase in energy consumption. In this scenario, researches in energy efficient high performance environments have emerged as a way to find the causes of excessive energy consumption and propose alternative solutions. Nowadays, one of the most representative high performance platforms is the computational grid which is used in many scientific and academic projects all over the world. In this work, we propose the use of energy-aware scheduling algorithms to efficiently manage the energy consumption in computational grids trying to avoid excessive performance losses. Our solution is based on: (i) an efficient management of idle resources; (ii) a clever use of active resources; (iii) the development of a procedure to accurately estimate the energy consumed in a given platform; (iv) the proposal of several new energy-aware scheduling algorithms for computational grids. We evaluate our approach using the SimGrid simulation environment and we compared our algorithms against five traditional scheduling algorithms for computational grids that are not energy-aware and one new algorithm recently proposed in the literature that deals with energy consumption issues. Our results show that in some experimental scenarios using our algorithms it is possible to achieve up to 221,03% of reduction in the energy consumption combined with 34,60% of performance loss. This example confirms our assumption that it is possible to significantly decrease the energy consumption on a grid platform without compromising proportionally the performance. / Os recentes avanços da Computação de Alto Desempenho abrem um largo espectro de possibilidades para as pesquisas na área. Arquiteturas paralelas e distribuídas modernas apresentam cada vez mais capacidade de processamento em busca de um maior poder computacional. Ao mesmo tempo, o ganho de desempenho obtido com as plataformas é seguido por um aumento do consumo de energia. Neste cenário, pesquisas sobre eficiência energética em ambientes de alto desempenho têm surgido como uma forma de encontrar as causas e propor soluções para o consumo excessivo de energia. Atualmente, uma das mais representativas plataformas de alto desempenho é a grade computacional, que é usada em muitos projetos científicos e acadêmicos em todo mundo. Neste trabalho, propomos o uso de algoritmos de escalonamento de tarefas energeticamente eficientes para a gestão do consumo de energia em grades computacionais sem causar perdas significativas de desempenho.A solução é baseada em: (i) gestão eficiente de recursos ociosos; (ii) uso inteligente de recursos ativos; (iii) desenvolvimento de um mecanismo para estimar com precisão a energia consumida por uma determinada plataforma; (iv) proposta de novos algoritmos de escalonamento energeticamente eficientes para grades computacionais. A abordagem criada foi avaliada utilizando o ambiente de simulação SimGrid. Comparamos nossos algoritmos com cinco algoritmos de escalonamento tradicionais para grades computacionais, que não consideram questões de energia, e um algoritmo recentemente proposto na literatura que lida com questões de consumo de energia. Os resultados mostram, em alguns cenários, uma redução no consumo de energia de 221,03%, combinada com uma perda de desempenho de 34,60%, com o uso de um dos algoritmos desenvolvidos neste trabalho. Este exemplo confirma a nossa hipótese de que é possível reduzir significativamente o consumo de energia em uma grade computacional sem comprometer de forma proporcional o desempenho.
7

Agrupamento e categorização de documentos jurídicos

Furquim, Luis Otávio de Colla January 2011 (has links)
Made available in DSpace on 2013-08-07T18:43:19Z (GMT). No. of bitstreams: 1 000439389-Texto+Completo-0.pdf: 2902269 bytes, checksum: 8e1dea861e0b5f7c53712bc7f1561efe (MD5) Previous issue date: 2011 / In this work we study the use of machine learning (clustering and classification) in judicial decisions search under electronic legal proceedings. We discuss and develop alternatives for precedent clustering, automatically generating classes to use to categorize when a user attaches new documents to its electronic legal proceeding. A changed version of the algorithm TClus, authored by Aggarwal, Gates and Yu was selected to be the use example, we propose removing its document and cluster discarding features and adding a cluster division feature. We introduce here a new paradigm “bag of terms and law references” instead of “bag of words” by generating attributes using two thesauri from the Brazilian Federal Senate and the Brazilian Federal Justice to detect legal terms a regular expressions to detect law references. In our use example, we build a corpus with precedents of the 4th Region’s Federal Court. The clustering results were evaluated with the Relative Hardness Measure and the p-Measure which were then tested with Wilcoxon’s Signed-ranks Test and the Count of Wins and Losses Test to determine its significance. The categorization results were evaluated by human specialists. The analysis and discussion of these results covered comparations of true/false positives against document similarity with the centroid, quantity of documents in the clusters, quantity and type of the attributes in the centroids e cluster cohesion. We also discuss attribute generation and its implications in the classification results. Contributions in this work: we confirmed that it is possible to use machine learning techniques in judicial decisions search, we developed an evolution of the TClus algorithm by removing its document and group discarding features and creating a group division feature, we proposed a new paradigm called “bag of terms and law references” evaluated by a prototype of the proposed process in a use case and automatic evaluation in the clustering phase and a human specialist evaluation in the categorization phase. / Este trabalho estuda a aplicação de técnicas de aprendizado de máquina (agrupamento e classificação) à pesquisa de jurisprudência, no âmbito do processo judicial eletrônico. Discute e implementa alternativas para o agrupamento dos documentos da jurisprudência, gerando automaticamente classes que servem ao posterior processo de categorização dos documentos anexados ao processo jurídico. O algoritmo TClus de Aggarwal, Gates e Yu é selecionado para desenvolvimento de exemplo de uso, com propostas de alteração no descarte de documentos e grupos, e passando a incluir a divisão de grupos. A proposta ainda introduz um paradigma "bag of terms and law references" em lugar do "bag of words", quando utiliza, na geração dos atributos, os tesauros do Senado Federal e da Justiça Federal para detectar termos jurídicos nos documentos e expressões regulares para detectar referências legislativas. No exemplo de uso, empregam-se documentos oriundos da jurisprudência do Tribunal Regional Federal da 4a Região. Os resultados dos agrupamentos foram avaliados pelas medidas Relative Hardness e p- e submetidos aos testes de significância de Wilcoxon e contagem de vitórias e derrotas. Os resultados da categorização foram avaliados por avaliadores humanos. A discussão e análise desses resultados abrangeu a comparação do sucesso e falha na classificação em relação à similaridade do documento com o centróide no momento da categorização, à quantidade de documentos nos grupos, à quantidade e tipo de atributos nos centróides e à coesão dos grupos. Discute-se, ainda, a geração dos atributos e suas implicações nos resultados da classificação. Contribuições deste estudo: confirmação da possibilidade de uso do aprendizado de máquina na pesquisa jurisprudencial, evolução do algoritmo TClus ao eliminar os descartes de documentos e grupos e ao implementar a divisão de grupos, proposta de novo paradigma “bag of terms and law references”, através de prototipação do processo proposto com exemplo de uso e avaliações automáticas na fase de clustering, e por especialista humano na fase de categorização.
8

Otimização e análise de algoritmos de ordenamento de redes proteicas

Kuentzer, Felipe Augusto January 2014 (has links)
Made available in DSpace on 2014-06-28T02:01:45Z (GMT). No. of bitstreams: 1 000458957-Texto+Completo-0.pdf: 14358950 bytes, checksum: 7458b8a1472071b48772b030a52573a6 (MD5) Previous issue date: 2014 / Analysis by Transcriptogram was developed as a solution to noise reduction, usually present in the microarray measuring technique of the Transcriptome, and has demonstrated potential to be applied as a method of disease diagnostics. The noise reduction in the measure is achived by the protein interaction network ordering, allowing gene expression analysis in whole genome scale. The Transcriptogram's efficiency to noise reduction was analyzed, however, it still lacks an analisys of the ordering quality, so that the best parameter setting for the ordering algorithm is used by the Transcriptogram. So far, this analysis is hindered by the high runtime of the ordering algorithm. In this work, an analysis of the ordering algorithm stages allows some optimizations, and consequent reduction in execution time, also allowing further analysis on which parameters settings have the greatest influence on the ordering quality. Applying the Transcriptogram to a diagnostic problem, the diagnostic measure is used to characterize the influence of the parameters of the ordering algorithm to achive better diagnoses. The results show that the protein network used in previous works doesn't produce the best diagnostics. Moreover, the ordering minimization, achieved by executing the ordering algorithm for longer periods, does not necessarily increase the probability to find better diagnosis compared to random ordering. Eventhough the experimental diagnostic results could not statistically difFerentiate random ordering from optimized ordering, these results cannot be considered conclusive since a single disease has been evaluated. / A análise por Transcriptograma foi desenvolvida como uma solução para a redução de ruído, comum nas medidas do Transcriptoma provenientes da técnica de microarranjo, e tem demonstrando potencial se aplicada como método para diagnósticos de doenças. A redução do ruído existente nas medidas se dá pelo ordenamento da rede de interações proteicas do organismo, permitindo a análise da expressão gênica em escala de genoma completo. A eficiência do Transcriptograma para a redução do ruído já foi analisada, entretanto, ainda carece a avaliação da qualidade do ordenamento, definindo para isso, amelhor configuração de parâmetros para o algoritmo de ordenamento utilizado pelo Transcriptograma. Até o momento, essa análise é dificultada pelo elevado tempo de execução do algoritmo de ordenamento. Neste trabalho, uma análise das etapas do algoritmo de ordenamento possibilita a realização de otimizações, e consequente redução no tempo de execução, além de permitir a análise mais aprofundadadas configurações dos parâmetros que tem maior influência na qualidade do ordenamento. Aplicando o Transcriptograma a um problema de diagnóstico, utiliza-se a medida do diagnóstico para caracterizar a influência dos parâmetros do algoritmo de ordenamento na obtenção de melhores diagnósticos. Observa-se nos resultados, que a rede proteica utilizada em trabalhos anteriores não apresenta os melhores diagnósticos. Além disso, a minimização do ordenamento, alcançada por meio da execução prolongada do algoritmo de ordenamento, não necessariamente aumenta a probabilidade de encontrar um melhor diagnóstico comparado com o ordenamento aleatório. Mesmo que os resultados experimentais com o diagnóstico não diferenciem estatisticamente o ordenamento aleatória do ordenamento otimizado, estes resultados não podem ser considerados conclusivos pois uma única doença foi avaliada.
9

Aproximação e compartilhamento de custos em projeto de redes / Approximation and cost-sharing in network design

Vignatti, André Luís 14 March 2006 (has links)
Orientador: Flavio Keidi Miyazawa / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-09T00:31:09Z (GMT). No. of bitstreams: 1 Vignatti_AndreLuis_M.pdf: 1110014 bytes, checksum: 4a8c19589a3914eb255c6938623be094 (MD5) Previous issue date: 2006 / Resumo: Neste trabalho estudamos a interação entre duas áreas: otimização combinatória e compartilhamento de custos (cost-sharing), que é a arte de dividir os custos associados a construção e manutenção de uma solução a qual um grupo de usuários é beneficiado. Apresentamos algoritmos para problemas de projeto de redes, tendo como objetivo principal os problemas ¿Connected Facility Location¿ e ¿Rent-or-Buy¿. Estes dois problemas são NP-difíceis, pois têm como caso particular o problema da arvore mínima de Steiner, que tambem é NP-dificil. Na primeira parte do trabalho, temos a seguinte questão como motivação: ¿Como projetar uma boa rede, ou seja, uma rede que satisfaça todas as propriedades do problema e ao mesmo tempo minimize o custo de construção desta rede?¿ 'E nesta parte que os algoritmos de aproximação entram em ação. Uma vez que esse custo for determinado, na segunda parte do trabalho, uma outra questão surge: ¿Como dividir esse custo entre todos os usuários que participam da rede de uma maneira ¿justa¿? Nesta parte, usaremos o compartilhamento de custos juntamente com as tecnicas de algoritmos de aproximação para responder a essa questão / Abstract: We consider the interplay of two areas: combinatorial optimization and cost-sharing in network design problems. In the first, we are interested to find a solution with small cost. In the second we would like to share the solution cost between its users. We present algorithms for the problems ¿Connected Facility Location¿ and ¿Rent-or-Buy¿. These two problems are NP-hard, since they have as a particular case the minimum Steiner tree problem, which is a known NP-hard problem. In the first part of this work, we have the following question as motivation: ¿how to design a good network, i.e., one that satisfies all problem requirements and minimize the overall network construction cost?¿ In this part, approximation algorithms takes action. Once this cost is determinated, in the second part of the work, another question arises: ¿How to distribute this cost among all users that participate in the network in a ¿fair¿ way? In this part, we will use cost-sharing together with approximation algorithms techniques to answer this question / Mestrado / Teoria da Computação / Mestre em Ciência da Computação

Page generated in 0.0303 seconds