• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 94
  • 32
  • 24
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 3
  • 1
  • 1
  • Tagged with
  • 386
  • 386
  • 326
  • 316
  • 200
  • 107
  • 76
  • 67
  • 66
  • 65
  • 56
  • 45
  • 38
  • 34
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

CONTRAM : middleware voltado a interoperabilidade entre sistemas de gerenciamento de tráfego urbano e redes de controladores semafóricos sob os paradigmas de sistemas de transportes inteligentes

Morais, Lincoln Luiz de January 2001 (has links)
Sistemas que utilizam tecnologias computacionais no tratamento de problemas relativos ao trânsito são classificados como ITS ou Intelligent Transportation System [FAR 97]. Esses sistemas buscam, através de sincronismo e eficiência no controle de sinais de tráfego, gerenciar o fluxo de veículos na malha viária minimizando o problema de congestionamento urbano e, consequentemente, problemas decorrentes desse congestionamento como um maior consumo de combustível, maior tempo de espera para veículos específicos como ambulâncias, bombeiros, polícia e transporte coletivo, e maiores índices de poluição ambiental, sonora e atmosférica, entre outros [FED 99A]. Atuando na coleta dos dados a serem tratados e processados por um Sistema de Gerenciamento de Tráfego Urbano ou SGTU, estão os dispositivos de controle de tráfego, como semáforos e sensores para detectar e quantificar o volume de veículos e seus respectivos controladores. Computacionalmente, são fatores relevantes a interoperabilidade entre esses dispositivos de controle e padronizações adotadas, de forma que um SGTU possa evoluir através da agregação de novas facilidades e recursos ou ainda desabilitar ou modificar os já existentes. Dada as características da administração pública e dos procedimentos de aquisição, são adquiridos controladores de diferentes fabricantes e modelos, dificultando a integração entre os mesmos em função de suas tecnologias proprietárias e da falta de uma política e esforço governamental em busca de padronizações para o setor, principalmente no que diz respeito à interoperabilidade. Recentemente iniciou-se uma mobilização para se estabelecer padrões voltados à área de transporte nos Estados Unidos [EUL 95], Japão [JAP 99] e Europa [KAR 99], através da participação dos órgãos que administram o tráfego urbano, dos fabricantes de sistemas de hardware e software, da comunidade acadêmica, dos órgãos de padronizações locais e das variadas instâncias da esfera governamental. Este trabalho apresenta o CONTRAM, modelo de um middleware que, tratando os controladores de dispositivos de controle tráfego instalados ao longo da malha viária baseado nos paradigmas de sistemas distribuídos, possa ser utilizado como interface entre estes e as aplicações computacionais de gerenciamento de tráfego, permitindo a integração de diferentes especificações em um único sistema. O seu escopo é atender às transações de consulta e configuração de valores dos dados utilizados para controlar, monitorar e gerenciar o tráfego de veículos, liberando um SGTU de conhecer detalhes técnicos envolvidos na comunicação com os controladores. O modelo baseia-se em uma arquitetura multicamadas, 4-tier, permitindo o gerenciamento de recursos de forma centralizada ou distribuída, neste último trocando dados através da internet, e integra-se aos sistemas legados e OO através do método black-box e chamada de objetos respectivamente. Foi projetado tendo em mente a utilização de padrões abertos da indústria da Informática e de Transportes, a interoperabilidade entre diferentes elementos tecnológicos voltados ao controle de tráfego e a expansibilidade segura de um SGTU. Para alcançar seu objetivo, faz uso de tecnologias baseadas em metadados e agentes SNMP. / Systems that use computational technologies in the handling of the traffic problems are classified as ITS or Intelligent Transportation System. These systems search through synchronism and efficiency in traffic signs control, to manage the stream of vehicles in the road network, minimizing the problem of urban congestion and, consequently, decurrent problems of this congestion as a major fuel consumption, major waiting time for specific vehicles as ambulances, firemen, policy and collective carrier and greaters indices of ambient pollution, sonorous and atmospheric, amongst others. Acting in the data collection to be treat and processed for a Urban Traffic Control System or UTCS, they are the traffic control devices, as traffic lights and sensors to detect and quantify the volume of vehicles and, its respective controllers. Computational, important factors are the interoperability among these control devices and standardizations adopted, allowing UTCS customize through the new easinesses and features aggregation or still disable or modify already the existing ones. Given the features of the public management and the acquisition procedures, different controllers models of different manufacturers are acquired, making it difficult the integration in function of its proprietary technologies and the lack of one politics and governmental effort in considering standardizations for the sector, mainly about interoperability. Recently was initiated a mobilization of standards establishing to the Transportation area in the United States, Japan and Europe, through the participation of the agencies that manage the urban traffic, hardware and software solutions providers, academic community, local standardizations agencies and the varied instances of the governmental sphere. This work presents the CONTRAM, a middleware model that, treating the traffic controllers installed in road networks based in distributed systems paradigms, can be used as interface between the computational applications of traffic management and the controllers of control devices, allowing the integration of different specifications in an only system. Its target is to take care of to get and set transactions on data values used to control, monitor and manage the vehicles traffic, liberating a UTCS to know technician details in the communication with the controllers. The model is based on multilayers architecture, 4-tier, allowing the resources management in centered or distributed form, in last one changing data through the Internet and it is combined to the legacies systems and OO through the black-box and object call method respectively. It was projected having in mind the use of open standards of the Transportation and Computer science industries , interoperability between different traffic control technological elements and the UTCS expansibility safe. To reach its objective, it makes use of metadata and SNMP agents technologies.
282

CONTRAM : middleware voltado a interoperabilidade entre sistemas de gerenciamento de tráfego urbano e redes de controladores semafóricos sob os paradigmas de sistemas de transportes inteligentes

Morais, Lincoln Luiz de January 2001 (has links)
Sistemas que utilizam tecnologias computacionais no tratamento de problemas relativos ao trânsito são classificados como ITS ou Intelligent Transportation System [FAR 97]. Esses sistemas buscam, através de sincronismo e eficiência no controle de sinais de tráfego, gerenciar o fluxo de veículos na malha viária minimizando o problema de congestionamento urbano e, consequentemente, problemas decorrentes desse congestionamento como um maior consumo de combustível, maior tempo de espera para veículos específicos como ambulâncias, bombeiros, polícia e transporte coletivo, e maiores índices de poluição ambiental, sonora e atmosférica, entre outros [FED 99A]. Atuando na coleta dos dados a serem tratados e processados por um Sistema de Gerenciamento de Tráfego Urbano ou SGTU, estão os dispositivos de controle de tráfego, como semáforos e sensores para detectar e quantificar o volume de veículos e seus respectivos controladores. Computacionalmente, são fatores relevantes a interoperabilidade entre esses dispositivos de controle e padronizações adotadas, de forma que um SGTU possa evoluir através da agregação de novas facilidades e recursos ou ainda desabilitar ou modificar os já existentes. Dada as características da administração pública e dos procedimentos de aquisição, são adquiridos controladores de diferentes fabricantes e modelos, dificultando a integração entre os mesmos em função de suas tecnologias proprietárias e da falta de uma política e esforço governamental em busca de padronizações para o setor, principalmente no que diz respeito à interoperabilidade. Recentemente iniciou-se uma mobilização para se estabelecer padrões voltados à área de transporte nos Estados Unidos [EUL 95], Japão [JAP 99] e Europa [KAR 99], através da participação dos órgãos que administram o tráfego urbano, dos fabricantes de sistemas de hardware e software, da comunidade acadêmica, dos órgãos de padronizações locais e das variadas instâncias da esfera governamental. Este trabalho apresenta o CONTRAM, modelo de um middleware que, tratando os controladores de dispositivos de controle tráfego instalados ao longo da malha viária baseado nos paradigmas de sistemas distribuídos, possa ser utilizado como interface entre estes e as aplicações computacionais de gerenciamento de tráfego, permitindo a integração de diferentes especificações em um único sistema. O seu escopo é atender às transações de consulta e configuração de valores dos dados utilizados para controlar, monitorar e gerenciar o tráfego de veículos, liberando um SGTU de conhecer detalhes técnicos envolvidos na comunicação com os controladores. O modelo baseia-se em uma arquitetura multicamadas, 4-tier, permitindo o gerenciamento de recursos de forma centralizada ou distribuída, neste último trocando dados através da internet, e integra-se aos sistemas legados e OO através do método black-box e chamada de objetos respectivamente. Foi projetado tendo em mente a utilização de padrões abertos da indústria da Informática e de Transportes, a interoperabilidade entre diferentes elementos tecnológicos voltados ao controle de tráfego e a expansibilidade segura de um SGTU. Para alcançar seu objetivo, faz uso de tecnologias baseadas em metadados e agentes SNMP. / Systems that use computational technologies in the handling of the traffic problems are classified as ITS or Intelligent Transportation System. These systems search through synchronism and efficiency in traffic signs control, to manage the stream of vehicles in the road network, minimizing the problem of urban congestion and, consequently, decurrent problems of this congestion as a major fuel consumption, major waiting time for specific vehicles as ambulances, firemen, policy and collective carrier and greaters indices of ambient pollution, sonorous and atmospheric, amongst others. Acting in the data collection to be treat and processed for a Urban Traffic Control System or UTCS, they are the traffic control devices, as traffic lights and sensors to detect and quantify the volume of vehicles and, its respective controllers. Computational, important factors are the interoperability among these control devices and standardizations adopted, allowing UTCS customize through the new easinesses and features aggregation or still disable or modify already the existing ones. Given the features of the public management and the acquisition procedures, different controllers models of different manufacturers are acquired, making it difficult the integration in function of its proprietary technologies and the lack of one politics and governmental effort in considering standardizations for the sector, mainly about interoperability. Recently was initiated a mobilization of standards establishing to the Transportation area in the United States, Japan and Europe, through the participation of the agencies that manage the urban traffic, hardware and software solutions providers, academic community, local standardizations agencies and the varied instances of the governmental sphere. This work presents the CONTRAM, a middleware model that, treating the traffic controllers installed in road networks based in distributed systems paradigms, can be used as interface between the computational applications of traffic management and the controllers of control devices, allowing the integration of different specifications in an only system. Its target is to take care of to get and set transactions on data values used to control, monitor and manage the vehicles traffic, liberating a UTCS to know technician details in the communication with the controllers. The model is based on multilayers architecture, 4-tier, allowing the resources management in centered or distributed form, in last one changing data through the Internet and it is combined to the legacies systems and OO through the black-box and object call method respectively. It was projected having in mind the use of open standards of the Transportation and Computer science industries , interoperability between different traffic control technological elements and the UTCS expansibility safe. To reach its objective, it makes use of metadata and SNMP agents technologies.
283

Qualidade de serviço de detectores de defeitos na presença de rajadas de perdas de mensagens / Quality of service of failure detectors in the presence of message loss bursts

Sotoma, Irineu 29 September 2006 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-07T10:13:43Z (GMT). No. of bitstreams: 1 Sotoma_Irineu_D.pdf: 1483229 bytes, checksum: 9fd71c5e3e9cefbd8ffefab03b2eb566 (MD5) Previous issue date: 2006 / Resumo: A Qualidade de Serviço (QoS) de detectores de defeitos determina a rapidez que um detector de defeitos q detecta a quebra de um processo p, e a precisão que q informa essa quebra. Em redes de longa distância e em redes sem fio, a ocorrência de quebras de processo, altas variações de atraso e perdas de pacotes em rajadas são comuns. Nestas condições, uma escolha adequada de parâmetros, por um configurador de detectores de defeitos, para manter o detector de defeitos satisfazendo os requisitos de QoS, é requerida. Por isso, este trabalho propõe um configurador de detector de defeitos que leva em conta a distribuição de probabilidade de comprimento de rajadas de perdas de pacotes de mensagem, através do uso de um modelo de Markov. Os resultados da simulação mostram que os parâmetros fornecidos pelo configurador proposto tendem a levar o detector de defeitos a satisfazer os requisitos de QoS em redes sujeitas a rajadas de perdas. Adicionalmente, a pesquisa mostra que é possível melhorar a precisão do detector de defeitos usando uma combinação de estimadores simples de atrasos de mensagens / Abstract: The quality of service (QoS) of failure detectors determines how fast a failure detector q detects the crash of a process p, and how accurate q informs the p crash. In wide area networks and wireless networks, the occurrence of process crashes, high delay variations and burst losses in message packets are common. In these conditions, an adequate choice in the failure detector parameters, by a failure detector configurator, to keep the failure detector satisfying the QoS requirements, is required. Therefore, this work proposes a failure detector Configurator which takes into account the probability distribution of loss burst lengths of message packets, by using a Markov model. The simulation results show that the parameters provided by the proposed configurator tend to lead the failure detector to satisfy the QoS requirements in networks subject to message loss bursts. Additionally, the work shows that is possible improve the accuracy of the failure detector by using a simple combination of simple message delay estimators / Doutorado / Mestre em Ciência da Computação
284

Processamento distribuído da junção espacial de múltiplas bases de dados: multi-way spatial join

Cunha, Anderson Rogério 19 February 2014 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2014-12-29T15:33:04Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2014-12-29T15:39:23Z (GMT) No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5) / Made available in DSpace on 2014-12-29T15:39:23Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5) Previous issue date: 2014-02-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Spatial join is one of the spatial operations of higher computational cost. Its complexity increases significantly when it involves multiple databases (multi-way spatial join). Traditional processing strategies of multi-way spatial join apply combinations of binary join algorithms on centralized computing environments. For complex queries, this approach requires much computational power, making it often unfeasible in centralized environments. This work proposes the Distributed Synchronous Traversal algorithm (DST), whose goal is to enable the distributed processing of multi-way spatial joins on a cluster of computers. The DST algorithm is based on Synchronous Traversal algorithm and processes the multiway spatial join in a single synchronous descent upon R-Trees levels of the database entries (the final outcome is built incrementally, without creating temporary databases). To the best of our knowledge, there are no other proposals in the literature that deal with this problem in a distributed fashion and on a peer-to-peer architecture. Many challenges had to be overcome, such as the definition of data structures that enabled the mapping of the semantics of queries of multi-way spatial join and coordination of the required distributed processing. DST proved to be satisfactorily parallelizable and scalable process real datasets in experiments performed in clusters of 1, 2, 4 and 8 servers. / A junção espacial (Spatial Join) é uma das operações espaciais de maior custo computacional. Sua complexidade aumenta significativamente quando envolve múltiplas bases de dados (multi-way spatial join). Estratégias tradicionais de processamento do multi-way spatial join aplicam combinações de algoritmos de junção binária sobre ambientes computacionais centralizados. Em consultas complexas, esse tipo de abordagem exige grande capacidade computacional muitas vezes inviável em ambientes centralizados. Neste trabalho é proposto o algoritmo Distributed Synchronous Traversal (DST), cujo objetivo é tornar viável a execução distribuída do multi-way spatial join em um cluster de computadores. O DST se baseia no algoritmo Synchronous Traversal e processa o multiway spatial join em uma única descida síncrona sobre os níveis das R-Trees das bases de dados de entrada. O resultado final é construído incrementalmente, sem a consolidação de dados intermediários. Até onde conhecemos, não há outras propostas na literatura para multi-way spatial join distribuído sobre uma arquitetura peer-to-peer. Muitos desafios tiveram que ser superados, como a definição de estruturas de dados que possibilitassem o mapeamento da semântica das consultas de multi-way spatial join e a coordenação do processamento distribuído das mesmas. O DST se mostrou satisfatoriamente paralelizável e escalável ao processar bases de dados reais em clusters de até 8 servidores.
285

A market-based approach to resource allocation in manufacturing

Brydon, Michael 11 1900 (has links)
In this thesis, a framework for market-based resource allocation in manufacturing is developed and described. The most salient feature of the proposed framework is that it builds on a foundation of well-established economic theory and uses the theory to guide both the agent and market design. There are two motivations for introducing the added complexity of the market metaphor into a decision-making environment that is traditionally addressed using monolithic, centralized techniques. First, markets are composed of autonomous, self-interested agents with well defined boundaries, capabilities, and knowledge. By decomposing a large, complex decision problem along these lines, the task of formulating the problem and identifying its many conflicting objectives is simplified. Second, markets provide a means of encapsulating the many interdependencies between agents into a single mechanism—price. By ignoring the desires and objectives of all other agents and selfishly maximizing their own expected utility over a set of prices, the agents achieve a high degree of independence from one another. Thus, the market provides a means of achieving distributed computation. To test the basic feasibility of the market-based approach, a prototype, system is used to generate solutions to small instances of a very general class of manufacturing scheduling problems. The agents in the system bid in competition with other agents to secure contracts for scarce production resources. In order to accurately model the complexity and uncertainty of the manufacturing environment, agents are implemented as decision-theoretic planners. By using dynamic programming, the agents can determine their optimal course of action given their resource requirements. Although each agent-level planning problem (like the global level planning problem) induces an unsolvably large Markov Decision Problem, the structured dynamic programming algorithm exploits sources of independence within the problem and is shown to greatly increase the size of problems that can be solved in practice. In the final stage of the framework, an auction is used to determine the ultimate allocation of resource bundles to parts. Although the resulting combinational auctions are generally intractable, highly optimized algorithms do exist for finding efficient equilibria. In this thesis, a heuristic auction protocol is introduced and is shown to be capable of eliminating common modes of market failure in combinational auctions. / Business, Sauder School of / Graduate
286

Avaliação de um sistema de gerencia de banco de dados em memoria principal para uso em aplicações WEB / Evaluation of a main-memory database for use on web applications

Supriano, Anderson 31 July 2006 (has links)
Orientador: Luiz Eduardo Buzato / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-07T21:51:35Z (GMT). No. of bitstreams: 1 Supriano_Anderson_M.pdf: 835080 bytes, checksum: b62645ab9d314ade2a5badaad1879518 (MD5) Previous issue date: 2006 / Resumo: Aplicações web são cada vez mais comuns em nosso cotidiano e com isto torna-se necessária a busca por soluções para a melhora do desempenho no acesso a essas aplicações. Várias técnicas existem para esta melhora de desempenho, entre elas a replicação de aplicações e bancos de dados e o uso de bancos de dados em memória principal. Em busca da melhora de desempenho pensa-se em juntar um banco de dados de memória principal com as técnicas de replicação. Para isto, é necessário escolher um banco de dados de memória principal que seja estável e já tenha bom desempenho, para que a camada de replicação possa ser implementada utilizando-o como base. Este trabalho tem o objetivo de analisar o desempenho de um banco de dados de memória principal e compará-lo com o desempenho de dois bancos de dados tradicionais. Os bancos de dados escolhidos foram: Monet, de memória principal, e MySQL e PostgreSQL, tradicionais. Para que uma medida de desempenho seja feita de modo que seja válida para o uso em aplicações web, o benchmark escolhido foi o TPC-W, que especifica a implementação de uma loja de livros e browsers emulados para acessar essa loja, de modo que é possível fazer uma análise de desempenho. Este trabalho irá mostrar um estudo sobre as teorias envolvidas e os resultados dos testes aplicados, em que o Monet não mostra ter um desempenho superior em todos os casos e nem está maduro o suficiente para ser usado na prática em replicação de aplicações web. Portanto, outras soluções baseadas em sistemas de gerência de persistência alternativos devem ser consideradas / Abstract: Web applications are very common applications nowadays and it is necessary to find solutions for performance improvements for these applications. There are several ways to implement these performance improvements, including applications and databases replication and usage of main-memory databases. Looking for performance improvements we can think about using main-memory databases together with replication algorithms. In order to implement this, it is necessary to choose a main-memory database that are stable and with good performance to be used to implement a replication layer on it. The objective of this work is analyzing a main-memory database performance and compares it with the performance of two traditional databases. The database systems chosen were: Monet, as a main-memory database, and MySQL and PostgreSQL, as traditional databases. In order to have a benchmark that is valid for web applications usage we chose the TPC-W benchmark, which specifies a book store implementation and emulated browsers to access this shop, which allows an analysis on database performance. This work will show a study about theories involved and the results of executed tests, where Monet¿s performance does not seem to be better performance in most cases and Monet seems not be stable enough to be used on a real system for replication of web applications. Therefore, other solutions based on alternative persistence management systems should be considered. / Mestrado / Engenharia de Computação / Mestre em Ciência da Computação
287

Spider: An overview of an object-oriented distributed computing system

Yuh, Han-Sheng 01 January 1997 (has links)
The Spider Project is an object-oriented distributed system which provides a testbed for researchers in the Department of Computer Science, CSUSB, to conduct research on distributed systems.
288

Spider II: A component-based distributed computing system

Wang, Koping 01 January 2001 (has links)
Spider II system is the second version implementation of the Spider project. This system is the first distributed computation research project in the Department of Computer Science at CSUSB. Spider II is a distributed virtual machine on top of the UNIX or LINUX operating system. Spider II features multi-tasking, load balancing and fault tolerance, which optimize the performance and stability of the system.
289

3D Image Processing and Communication in Camera Sensor Networks: Free Viewpoint Television Networking

Teratani, Mehrdad 09 1900 (has links) (PDF)
info:eu-repo/semantics/nonPublished
290

Sharing the love : a generic socket API for Hadoop Mapreduce

Yee, Adam J. 01 January 2011 (has links)
Hadoop is a popular software framework written in Java that performs data-intensive distributed computations on a cluster. It includes Hadoop MapReduce and the Hadoop Distributed File System (HDFS). HDFS has known scalability limitations due to its single NameNode which holds the entire file system namespace in RAM on one computer. Therefore, the NameNode can only store limited amounts of file names depending on the RAM capacity. The solution to furthering scalability is distributing the namespace similar to how file is data divided into chunks and stored across cluster nodes. Hadoop has an abstract file system API which is extended to integrate HDFS, but has also been extended for integrating file systems S3, CloudStore, Ceph and PVFS. File systems Ceph and PVFS already distribute the namespace, while others such as Lustre are making the conversion. Google previously announced in 2009 they have been implementing a Google File System distributed namespace to achieve greater scalability. The Generic Hadoop API is created from Hadoop's abstract file system API. It speaks a simple communication protocol that can integrate any file system which supports TCP sockets. By providing a file system agnostic API, future work with other file systems might provide ways for surpassing Hadoop 's current scalability limitations. Furthermore, the new API eliminates the need for customizing Hadoop's Java implementation, and instead moves the implementation to the file system itself. Thus, developers wishing to integrate their new file system with Hadoop are not responsible for understanding details ofHadoop's internal operation. The API is tested on a homogeneous, four-node cluster with OrangeFS. Initial OrangeFS I/0 throughputs compared to HDFS are 67% ofHDFS' write throughput and 74% percent of HDFS' read throughput. But, compared with an alternate method of integrating with OrangeFS (a POSIX kernel interface), write and read throughput is increased by 23% and 7%, respectively

Page generated in 0.0523 seconds