• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 40
  • 40
  • 34
  • 17
  • 17
  • 12
  • 11
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Ketib : um processo de representação de informações para textos complexos

Kerr, Eduardo Santos 30 July 2003 (has links)
Orientadores: Paulo Licio de Geus, Fernando Antonio Vanini / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T18:44:46Z (GMT). No. of bitstreams: 1 Kerr_EduardoSantos_M.pdf: 2585011 bytes, checksum: 2fd67d43272fa13f5e50ede1ec493050 (MD5) Previous issue date: 2003 / Resumo: O termo "texto complexo" é utilizado para classificar um texto que possua relações transtextuais dentro do texto de origem e com textos complementares, que sirvam para agregar os diferentes tipos de análise e crítica, ou simplesmente para permitir uma melhor compreensão. Nesse trabalho, é proposto um processo para representação de informação em textos complexos utilizando a meta linguagem XML e algumas tecnologias relacionadas. Como parte do processo de representação, foi definido um modelo denominado Ketib, que é aplicado, a título de estudo de caso, à obra Biblia Hebraica Stuttgartensia. Este texto foi escolhido por apresentar um alto grau de complexidade, tomando possível demonstrar o potencial do modelo no tratamento da representação e da codificação de informações com natureza multidimensional que contenham diferentes sistemas de referência. Os resultados não estão restritos ao estudo de caso e demonstram a viabilidade desse processo em textos de outros domínios / Abstract: The phrase "complex text" applies to texts that possess transtextual relations within the source text and that relate to other supplementary texts, either for aggregating the different kinds of critiques and analyses, or just for better understanding. This work proposes a process for the representation of information in complex texts using the XML language and some related technologies. As part of the representation process, the model defined was one called Ketib, and it is applied, as a case study, to the Biblia Hebraica Sttutgartensia. The reason for selecting this text was its high degree of complexity, making it possible to validate the potential of the model when treating the representation and the codification of information of a multidimensional nature, containing different reference systems. The results are not restricted to the case study and demonstrate the possibilities of this process in texts in other domains / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
12

Analise de desempenho de metodos de acesso espaciais baseada em um banco de dados real

Carneiro, Alexandre Pedrosa 25 July 2018 (has links)
Orientador: Geovane Cayres Magalhães / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-25T14:34:23Z (GMT). No. of bitstreams: 1 Carneiro_AlexandrePedrosa_M.pdf: 3246444 bytes, checksum: ad2d0c89291cd83b4494c0f03936fef5 (MD5) Previous issue date: 1998 / Resumo: Esta dissertação apresenta uma análise comparativa de desempenho de métodos de acesso espaciais a partir de um banco de dados real. Embora haja um grande número de pesquisas envolvendo a comparação de desempenho de métodos de acesso espaciais, pouco até hoje se fez para que essas avaliações levem em conta as características de grupos específicos de aplicações, o que em parte se deve à dificuldade de se obter conjuntos de dados reais que as representem. A utilização de dados reais é necessária, uma vez que a geração de dados sintéticos pode resultar em conjuntos de dados com características atípicas, levando a conclusões não necessariamente extensíveis a determinado tipo de aplicação. Neste contexto, as principais contribuições deste trabalho são: A conversão de um conjunto de dados reais representativos para aplicações de gerenciamento de serviços de utilidade pública, tais como telefonia, eletricidade e água, para um formato em que ele pode ser facilmente repassado a outros pesquisadores; A avaliação do desempenho de um grupo de métodos de acesso espaciais pertencentes à família da R-tree na indexação desse cónjunto de dados. Alguns dos resultados dos experimentos divergiram de outros obtidos por um grupo de pesquisadores a partir de dados sintéticos, reforçando a necessidade do uso de dados reais representativos na comparação de desempenho de métodos de acesso espaciais. Esta dissertação traz ainda um levantamento das diversas técnicas utilizadas na indexação de dados espaciais. / Abstract: This dissertation presents a comparative performance analysis of spatial access methods based on a real-life database. In spite of the large amount of research dealing with the performance comparison of spatial access methods, very little has been done when it comes to considering the properties of specific groups of applications. In part, this is due to the difficulty in obtaining real data sets to represent them. The use of real data is necessary, since synthetic data generation may result in data sets with atypical characteristics, which may lead, in turn, to conclusions that don't apply to a given application type. In this context, the main contributions of this work are: The conversion of a real data set that is representative of geographic applications for public utility services management to a format in which it may be easily delivered to other researchers. Public utility services include telecommunication, electricity and water supply, and the like. The performance comparison of a group of spatial access methods of the R-tree family with regards to the indexing of this data set. The accomplished experiments have shown some results that disagree with other ones obtained by a group of researchers who have based on synthetic data sets, reinforcing the need of using representative real data sets. This dissertation also presents a survey of several techniques used in spatial data indexing. / Mestrado / Mestre em Ciência da Computação
13

Estrutura de dados persistentes / Persistent data structures

Couto, Yan Soares 08 January 2019 (has links)
Estruturas de dados (EDs) permitem operações de acesso e de modificação; operações de acesso apenas consultam um ou mais campos de uma ED, enquanto operações de modificação podem alterar os campos da estrutura. Dizemos que, ao realizar uma operação de modificação, criamos uma nova versão da ED. Uma ED é parcialmente persistente se permite apenas operações de acesso a versões anteriores e modificação apenas na versão mais nova, e totalmente persistente se também permite operações de modificação em todas as versões. Esta dissertação apresenta a descrição e implementação de uma versão total ou parcialmente persistente de várias estruturas: pilhas, filas, deques e árvores rubro-negras. Também são discutidas técnicas gerais para tornar persistentes certas classes de estruturas de dados. Por fim, é apresentada uma solução ao problema de localização de ponto, que usa uma árvore de busca binária persistente. / Data structures (DSs) allow access and update operations; access operations only allow accessing the value of one or more fields of the DS, while update operations allow modifying the fields of the structure. We say that, whenever an update operation is done, a new version of the DS is created. A DS is partially persistent if it allows access operations to previous versions of the structure and update operations only on the newest version, and totally persistent if it also allows update operations on all versions. This dissertation presents the description and implementation of totally or partially persistent versions of several data structures: stacks, queues, deques, and red-black trees. General techniques to make certain classes of DSs persistent are also discussed. At last, a solution to the point location problem, using a persistent binary search tree, is presented.
14

Nazca

Oliveira, Karine Barbosa de January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2015-02-05T20:11:50Z (GMT). No. of bitstreams: 1 328259.pdf: 2078189 bytes, checksum: 40d2695a3b103c3b486d69b3fc14dcbf (MD5) Previous issue date: 2014 / O casamento de esquemas em nível de estrutura é um processo que pode ser aplicado em diversas áreas que envolvem a manipulação de dados heterogêneos. A ideia principal é casar elementos de estruturas que podem ser encontradas em diferentes fontes de dados, como por exemplo, elementos XML, classes de objetos, tabelas relacionais, web forms entre outras. Este processo é considerado um desafio devido ao grande número de representações heterogêneas de estruturas semanticamente similares. Neste trabalho, descreve-se um método de casamento de esquemas em nível de estruturas aplicado em um processo de busca. O objetivo é utilizar não só a própria estrutura no processo de casamento, mas também dados adicionais armazenados nas fontes de dados, que podem ser suficientemente representativos para caracterizar a estrutura. Estes dados podem ser chamados de "informações contextuais" e servem como base para ajustar o escore final de similaridade entre a estrutura da consulta e as estruturas encontradas nas fontes de dados. O método proposto é composto pelos seguintes componentes: i) funções de similaridade atômicas para elementos do esquema; ii) algoritmo para detecção das informações contextuais; e iii) árvore de decisão para o ajuste final de similaridade. Foram realizados experimentos que demonstram a efetividade do método com melhoria da precisão em relação ao algoritmo usado como "baseline".<br> / Abstract : Structure-level matching is an important matching operator in variousapplications areas involving heterogeneous data. The main ideia is tomatching combinations of elements that appear together in a structure,which can be found in dierent data models such as XML elements, objectclasses, relational tables, structures of web forms, and so one. Thisis a challenge due to large number of distinct representations of structuressemantically similar. In this work, we describe a structure-levelmatching method developed to search for structures representations indata sources, taking into account the similarity score between structureelements and its context. The main goal is to use any internalinformation stored in the data source as context beyond the structureinformation, which can be representative enough to characterizethe structure representation itself, for adjusting the similarity scorebetween structure elements. The proposed method consists of the followingcomponents: i) atomic similarity functions to schema elements;ii) detection algorithm of contextual information; e iii) decision tree fornal similarity score adjusts. We also present experiments showing theeectiveness of our method.
15

Extração de conhecimento em bases de dados espaciais: algoritmo CHSMST+

Medeiros, Camila Alves de [UNESP] 28 March 2014 (has links) (PDF)
Made available in DSpace on 2014-12-02T11:16:48Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-03-28Bitstream added on 2014-12-02T11:21:33Z : No. of bitstreams: 1 000792056.pdf: 4132783 bytes, checksum: c8f25369424acc27b4e2db78b152533f (MD5) / O desenvolvimento de tecnologias de coleta de informações espaciais resultou no armazenamento de um grande volume de dados, que devido à complexidade dos dados e dos respectivos relacionamentos torna-se impraticável a aplicação de técnicas tradicionais para prospecção em bases de dados espaciais. Nesse sentido, diversos algoritmos vêm sendo propostos, sendo que os algoritmos de agrupamento de dados espaciais são os que mais se destacam devido a sua alta aplicabilidade em diversas áreas. No entanto, tais algoritmos ainda necessitam superar vários desafios para que encontrem resultados satisfatórios em tempo hábil. Com o propósito de contribuir neste sentido, neste trabalho é apresentado um novo algoritmo, denominado CHSMST+, que realiza o agrupamento de dados considerando tanto a distância quanto a similaridade, o que possibilita correlacionar atributos espaciais e não espaciais. Tais tarefas são realizadas sem parâmetros de entrada e interação com usuário, o que elimina a dependência da interpretação do usuário para geração dos agrupamentos, bem como possibilita a obtenção de agrupamentos mais eficientes uma vez que os cálculos realizados pelo algoritmo são mais precisos que uma análise visual dos mesmos. Além destas técnicas, é utilizada a abordagem multithreading, que possibilitou uma redução média de 38,52% no tempo de processamento. O algoritmo CHSMST+ foi aplicado em bases de dados espaciais da área da saúde e meio ambiente, mostrando a capacidade de utilizá-lo em diferentes contextos, o que torna ainda mais relevante o trabalho realizado / The development of technologies for collecting spatial information has resulted in a large volume of stored data, which makes inappropriate the use of conventional data mining techniques for knowledge extraction in spatial databases, due to the high complexity of these data and its relationships. Therefore, several algorithms have been proposed, and the spatial clustering ones stand out due to their high applicability in many fields. However, these algorithms still need to overcome many challenges to reach satisfactory results in a timely manner. In this work, we present a new algorithm, namely CHSMST+, which works with spatial clustering considering both distance and similarity, allowing to correlate spatial and non-spatial attributes. These tasks are performed without input parameters and user interaction, eliminating the dependence of the user interpretation for cluster generation and enabling the achievement of cluster in a more efficient way, since the calculations performed by the algorithm are more accurate than visual analysis of them. Together with these techniques, we use a multithreading approach, which allowed an average reduction of 38,52% in processing time. The CHSMST+ algorithm was applied in spatial databases of health and environment, showing the ability to apply it in different contexts, which makes this work even more relevant
16

Um Interpretador Gráfico de Comandos baseado na JVM como ferramenta de ensino de Programação, Algoritmos e Estruturas de Dados

Sousa, Tiago Davi Neves de 29 July 2013 (has links)
Made available in DSpace on 2015-05-14T12:36:39Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 3945382 bytes, checksum: a1134c3a0dae913ca53f16674f95b37d (MD5) Previous issue date: 2013-07-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In disciplines of Programming, Data Structures and Algorithms of Computer Science courses, tools that permit the visualization of the the data structures changing throughout the execution of a program by the students are very useful because they assist that the students learn how the algorithms operate over the data structures. Many tools were proposed since the pioneer work of [Brown e Sedgewick 1984]. In some of them, the graphical visualization of the data structures through the animations can only be done by the users programming and in others there are a lack of resources that forbid their use in the whole pedagogical process. Thus, in this work an Interpreter for the IGED (Graphical Interpreter of Data Structures) teaching tool was developed. This Interpreter was designed based in the JVM and enable that codes implementing various algorithms in an object oriented language be executed by the tool so that it generates as output the graphical visualization of the data structures. The architecture of the Interpreter developed in this work and its components were detailed and the functional requirements it may have as a teaching tool, being useful for other disciplines of Computer Science, were defined. Furthermore, was justified why an own implementation of an Interpreter for the IGED was done if there are JVM implementations available and widely used. In the experiments, was demonstrated that the Interpreter may execute code with useful characteristics for these disciplines. / Em disciplinas de Programação, Estruturas de Dados e Algoritmos de cursos de Computação, ferramentas que permitam que os alunos possam visualizar as alterações nas estruturas de dados ao longo da execução de um programa são de grande utilidade, já que elas auxiliam que os aprendizes entendam como os algoritmos operam sobre as estruturas de dados. Diversas ferramentas foram propostas desde o trabalho pioneiro de [Brown e Sedgewick 1984]. Em algumas delas, as visualizações gráficas das estruturas através de animações só podem ser feitas através de programação pelos usuários e outras carecem de recursos que as impossibilitam de serem empregadas em todo o processo pedagógico. Assim, neste trabalho foi desenvolvido um Interpretador para a ferramenta de ensino IGED (Interpretador Gráfico de Estruturas de Dados). Esse Interpretador foi projetado baseado na JVM e possibilita que códigos que implementam vários algoritmos em uma linguagem de programação orientada a objetos sejam executados pela ferramenta de forma que esta gere como saída as visualizações gráficas das estruturas de dados. A arquitetura do Interpretador desenvolvido neste trabalho e seus componentes foram detalhados e requisitos funcionais que ele pode ter como ferramenta de ensino, sendo útil para outras disciplinas de Computação, foram definidos. Além disso, foi justificado porque houve uma implementação própria de um Interpretador para o IGED se já existem implementações da JVM disponíveis e amplamente utilizadas. Nos experimentos, foi demonstrado que o Interpretador pode executar códigos com características que são úteis para essas disciplinas.
17

Gerenciamento de serviços de TI : uma proposta de integração de processos de melhoria e gestão de serviços / Management of it services : a proposal of integration of processes of improvement and manager of services

Martins, Márcia Missias Gomes 10 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2006. / Submitted by samara castro (sammy_roberta7@hotmail.com) on 2009-11-15T14:18:49Z No. of bitstreams: 1 2006_Márcia Missias Gomes Martins.pdf: 3366603 bytes, checksum: 012225d3275e499f3d38682d198b52fe (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2009-11-15T19:24:15Z (GMT) No. of bitstreams: 1 2006_Márcia Missias Gomes Martins.pdf: 3366603 bytes, checksum: 012225d3275e499f3d38682d198b52fe (MD5) / Made available in DSpace on 2009-11-15T19:24:15Z (GMT). No. of bitstreams: 1 2006_Márcia Missias Gomes Martins.pdf: 3366603 bytes, checksum: 012225d3275e499f3d38682d198b52fe (MD5) Previous issue date: 2006-10 / A busca pela melhoria nos serviços oferecidos pelas áreas de TI é atualmente objetivo da maioria das organizações. A utilização de metodologias e boas práticas para gestão dos serviços de TI, vêm se tornando uma prática fundamental para obtenção do sucesso no oferecimento destes serviços. Nesse contexto, este trabalho propõe organizar e definir um Framework para conduzir a implantação de Programas de Melhoria de Serviços de TI. A abordagem proposta é fundamentada no paradigma processual e objetiva orientar as organizações na condução de projetos de melhoria em serviços sob os prismas processuais, tecnológicos e humanos. O Framework elaborado utiliza o conceito de camadas. Este instrumento é fortemente baseado na Biblioteca de Infra-estrutura de TI (ITIL) e para o entendimento do conjunto de informações utilizadas, os temas acerca de análise e melhoria contínua de processos, bem como gestão de serviços com uso do ITIL são revistos. Um estudo de caso chamado Lenio foi realizado e consistiu na aplicação do Framework em uma organização real, para verificar a aplicabilidade do Framework bem como auxiliar a verificação das hipóteses levantadas no estudo. Os resultados do estudo de caso são apresentados e, embora não sendo completamente institucionalizados na organização, introduziram sensíveis melhorias nos processos de suporte aos serviços de TI. _______________________________________________________________________________________ ABSTRACT / The search for the improvement in the services offered by the Information Technology – IT areas is currently objective of the majority of the organizations. The use of methodologies and good practices for IT services management are becoming a basic practice to achieve success in providing these services. In this context, this work intends to organize a Framework to drive the implementation of Improvement Programs of IT Services. The proposal approach is based on procedural paradigm and aims to guide the organizations in the conduction of improvement projects in services under the procedural, technological, and human prisms. The Framework elaborated use the concept of layers. This tool is strongly based on Information Technology Infrastructure Library (ITIL) and for the understanding of the set of used information, the subjects about analysis and continuous improvement processes as well as services management with ITIL use are reviewed. A case study called Lenio was carried through and consisted of the application of the Framework in a real organization, to verify the applicability of the Framework as well as assisting the verification of hypotheses raised in the study. The results of the case study are presented and although not being institutionalized in the organization, they had introduced sensible improvements in the processes of support to the IT services.
18

Indexação multimídia escalável e busca por similaridade em alta dimensionalidade / Scalable multimedia indexing and similarity search in high dimensionality

Akune, Fernando Cesar, 1976- 08 January 2011 (has links)
Orientador: Ricardo da Silva Torres / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-19T04:44:52Z (GMT). No. of bitstreams: 1 Akune_FernandoCesar_M.pdf: 1241917 bytes, checksum: b220cb9e6aac3f8136585dedd9cd0da9 (MD5) Previous issue date: 2011 / Resumo: A disseminação de grandes coleções de arquivos de imagens, músicas e vídeos tem aumentado a demanda por métodos de indexação e sistemas de recuperação de informações multimídia. No caso de imagens, os sistemas de busca mais promissores são os sistemas baseados no conteúdo, que ao invés de usarem descrições textuais, utilizam vetores de características, que são representações de propriedades visuais, como cor, textura e forma. O emparelhamento dos vetores de características da imagem de consulta e das imagens de uma base de dados é implementado através da busca por similaridade. A sua forma mais comum é a busca pelos k vizinhos mais próximos, ou seja, encontrar os k vetores mais próximos ao vetor da consulta. Em grandes bases de imagens, um índice é indispensável para acelerar essas consultas. O problema é que os vetores de características podem ter muitas dimensões, o que afeta gravemente o desempenho dos métodos de indexação. Acima de 10 dimensões, geralmente é preciso recorrer aos métodos aproximados, sacrificando a eficácia em troca da rapidez. Dentre as diversas soluções propostas, existe uma abordagem baseada em curvas fractais chamadas curvas de preenchimento do espaço. Essas curvas permitem mapear pontos de um espaço multidimensional em uma única dimensão, de maneira que os pontos próximos na curva correspondam a pontos próximos no espaço. O grande problema dessa alternativa é a existência de regiões de descontinuidade nas curvas, pontos próximos dessas regiões não são mapeados próximos na curva. A principal contribuição deste trabalho é um método de indexação de vetores de características de alta dimensionalidade, que utiliza uma curva de preenchimento do espaço e múltiplos representantes para os dados. Esse método, chamado MONORAIL, gera os representantes explorando as propriedades geométricas da curva. Isso resulta em um ganho na eficácia da busca por similaridade, quando comparado com o método de referência. Outra contribuição não trivial deste trabalho é o rigor experimental usado nas comparações: os experimentos foram cuidadosamente projetados para garantir resultados estatisticamente significativos. A escalabilidade do MONORAIL é testada com três bases de dados de tamanhos diferentes, a maior delas com mais de 130 milhões de vetores / Abstract: The spread of large collections of images, videos and music has increased the demand for indexing methods and multimedia information retrieval systems. For images, the most promising search engines are content-based, which instead of using textual annotations, use feature vectors to represent visual properties such as color, texture, and shape. The matching of feature vectors of query image and database images is implemented by similarity search. Its most common form is the k nearest neighbors search, which aims to find the k closest vectors to the query vector. In large image databases, an index structure is essential to speed up those queries. The problem is that the feature vectors may have many dimensions, which seriously affects the performance of indexing methods. For more than 10 dimensions, it is often necessary to use approximate methods to trade-off effectiveness for speed. Among the several solutions proposed, there is an approach based on fractal curves known as space-filling curves. Those curves allow the mapping of a multidimensional space onto a single dimension, so that points near on the curve correspond to points near on the space. The great problem with that alternative is the existence of discontinuity regions on the curves, where points near on those regions are not mapped near on the curve. The main contribution of this dissertation is an indexing method for high-dimensional feature vectors, using a single space-filling curve and multiple surrogates for each data point. That method, called MONORAIL, generates surrogates by exploiting the geometric properties of the curve. The result is a gain in terms of effectiveness of similarity search, when compared to the baseline method. Another non-trivial contribution of this work is the rigorous experimental design used for the comparisons. The experiments were carefully designed to ensure statistically sound results. The scalability of the MONORAIL is tested with three databases of different sizes, the largest one with more than 130 million vectors / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
19

Complexidade de construção de árvores PQR / Complexity of PQR tree construction

Zanetti, João Paulo Pereira, 1987- 20 August 2018 (has links)
Orientador: João Meidanis / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-20T15:24:54Z (GMT). No. of bitstreams: 1 Zanetti_JoaoPauloPereira_M.pdf: 508253 bytes, checksum: b5fd4d2bfb8ac0b251598b01ca9431e9 (MD5) Previous issue date: 2012 / Resumo: As árvores PQR são estruturas de dados usadas para tratar o problema dos uns consecutivos e problemas relacionados. Aplicações incluem reconhecimento de grafos de intervalos, de grafos planares, e problemas envolvendo moléculas de DNA. A presente dissertação busca consolidar o conhecimento sobre árvores PQR e, principalmente, sua construção incremental, visando fornecer uma base teórica para o uso desta estrutura em aplicações. Este trabalho apresenta uma descrição detalhada do projeto do algoritmo para construção online de árvores PQR, partindo de uma implementação inocente das operações sugeridas e refinando sucessivamente o algoritmo até alcançar a complexidade de tempo quase-linear. Neste projeto, lidamos com um obstáculo que surge com a utilização de estruturas de union-find que não havia sido tratado anteriormente. A demonstração da complexidade de tempo do algoritmo apresentada aqui também é nova e mais clara. Além disso, o projeto é acompanhado de uma implementação em Java dos algoritmos descritos / Abstract: PQR trees are data structures used to solve the consecutive ones problem and other related problems. Applications include interval or planar graph recognition, and problems involving DNA molecules. This dissertation aims at consolidating existing and new knowledge about PQR trees and, primarily, their online construction, thus providing a theoretical basis for the use of this structure in applications. This work presents a detailed description of the online PQR tree construction algorithm's design, starting with a naive implementation of the suggested operations and refining them successively, culminating with an almost-linear time complexity. In this project, we dealt with an obstacle that arises with the use of union-find structures and that has never been addressed before. The proof presented here for the time complexity is also novel and clearer. Furthermore, the project is accompanied by a Java implementation of all the algorithms described / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
20

Uma ferramenta para auxiliar no ensino de estruturas de dados como tipo de dado abstrato

Engelbrecht, Angela de Mendonça 03 August 2018 (has links)
Orientador : Beatriz Mascia Daltrini / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T14:47:59Z (GMT). No. of bitstreams: 1 Engelbrecht_AngeladeMendonca_D.pdf: 824030 bytes, checksum: 75f82c4f43071fe095f9ae8d933e06f8 (MD5) Previous issue date: 2003 / Doutorado

Page generated in 0.1144 seconds