• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 144
  • 3
  • 2
  • Tagged with
  • 150
  • 150
  • 90
  • 84
  • 30
  • 27
  • 26
  • 23
  • 22
  • 22
  • 21
  • 21
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Uma arquitetura de proxy com prioridades de serviços para chamadas remotas de procedimentos de tempo real

Nobile, Pedro Northon 21 June 2007 (has links)
Made available in DSpace on 2016-06-02T19:05:29Z (GMT). No. of bitstreams: 1 1869.pdf: 3670674 bytes, checksum: 5de980c6b029f96d63aa8bdd96524c69 (MD5) Previous issue date: 2007-06-21 / Universidade Federal de Sao Carlos / During the last few years is possible to observ an significant increase of real time applications, , mainly of multimedia applications (e.g. video and voice streamming). Factors such as the popularization of broadband (e.g. XDSL) and wireless (e.g. 802.11 familiy and 802.15 pattern) networks, associated to the appearance of better devices and the increase of user s communications need, have contributed. Currently, with the appearance of new concepts of communications like home networks, it is possible to predict that real time applications will be part of user s daily. Anticipating a solution to that predict, this work proposes a proxy architecture with priorities of services for real time remote procedure calls, that uses the earlier amount of tra_c to predict the future occupation network, and choose the most appropriate policy to adapt the proxy to the environment future states. / Nos últimos anos tem-se observado um crescimento acentuado de aplicações de tempo real, principalmente de aplicações que envolvem multimídia (e.g. streamming de vídeo e voz). Fatores como a popularização de redes de banda larga (e.g. xDSL) e das redes sem fio(e.g. família 802.11 e 802.15), juntamente com o surgimento de melhores dispositivos e a necessidade de comunicação cada vez maior por parte dos usuários, têm contribuído para tal crescimento. Atualmente, com o surgimento de novos conceitos de comunicação como as home networks, é possível prever que em um futuro próximo, a comunicação entre aplicações de tempo real fará parte do cotidiano dos usuários. Antecipando uma solução para essa previsão, este trabalho propõe uma arquitetura de proxy com prioridades de serviços para chamadas remotas de procedimento de tempo real, que utiliza os volumes anteriores de tráfego para fazer previsões sobre o estado futuro de ocupação da rede, selecionando as políticas de atuação mais adequadas para que o proxy se adapte aos futuros estados do ambiente.
82

Alocação otimizada de sensores indicadores de falta em redes de distribuição de energia elétrica / Optimal placement f fault indicators in electric distribuion systems

Cruz, Héctor Manuel Orellana [UNESP] 16 December 2016 (has links)
Submitted by Héctor Orellana (grc@unesp.br) on 2017-01-05T16:57:08Z No. of bitstreams: 1 Dissertação_Hector.pdf: 2242579 bytes, checksum: ff628d49653c029da4b721581980abde (MD5) / Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2017-01-09T18:10:45Z (GMT) No. of bitstreams: 1 cruz_hmo_me_ilha.pdf: 2242579 bytes, checksum: ff628d49653c029da4b721581980abde (MD5) / Made available in DSpace on 2017-01-09T18:10:45Z (GMT). No. of bitstreams: 1 cruz_hmo_me_ilha.pdf: 2242579 bytes, checksum: ff628d49653c029da4b721581980abde (MD5) Previous issue date: 2016-12-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho propõe abordar o problema de alocação de dispositivos indicadores de faltas (IFs) em redes de distribuição de energia elétrica por meio da técnica do Algoritmo Genético Adaptativo (AGA). O algoritmo busca obter uma configuração eficiente de instalação de IFs no sistema e reduzir o custo anual da energia não suprida (CENS) e por outro lado, o custo anual de investimento dos sensores (CINV). Estes custos conflitantes devem ser minimizados como um problema combinatório utilizando o AGA que possui taxas de recombinação e mutação dinamicamente calibradas baseadas na diversidade de cada população no processo. Os resultados mostram que o AGA é um método efetivo para encontrar soluções para o problema de alocação de IFs. Quando comparado com o AG clássico em vários testes, é observado que o AGA tem uma convergência mais rápida mostrando ser mais eficiente. Além disso, o AGA é utilizado para obter uma variedade de soluções numa Fronteira de Pareto aproximada variando os pesos do CENS e o CINV na função objetivo. Portanto, esta metodologia permite obter um conjunto de soluções em lugar de uma única solução e a partir da Fronteira de Pareto é possível escolher a solução que melhor satisfaz os interesses técnicos e econômicos da concessionária de distribuição de energia elétrica. / This work proposes the Adaptive Genetic Algorithm (AGA) to solve the problem of Fault Indicator (FI) placement in electric distribution systems. The algorithm attempts to obtain an efficient configuration for the installation of FIs in the system and reduce the annual costumer interruption cost (CIC) and on the other hand, the annual investment cost (CINV) of the fault indicators placement. These two conflicting costs must be minimized as a problem of combinational nature with the AGA which uses dynamically calibrated crossover and mutation rates based on the diversity of each population of the process. Results show that the AGA is an effective method to find solutions to the problem of fault indicator placement. When compared with the classic GA in various tests, it is observed that the AGA converges faster showing to be more efficient. Besides, in the last test the AGA is used to obtain a variety of solutions in an approximate Pareto Front by varying the weighting factors of the CIC and CINV in the objective function. Therefore, this methodology permits to obtain a set of solutions instead of one only solution and from the Pareto Front it is possible to choose the solution that best satisfies the technical and economic interests of the concessionary.
83

Fatores de equivalência de veículos pesados em rodovias de pista dupla / Passenger-car equivalents for heavy vehicles on expressways

Fernando José Piva 19 June 2015 (has links)
Este trabalho visa avaliar o impacto de veículos pesados na qualidade de serviço de rodovias de pista dupla através de equivalentes veiculares. Para isso, foram feitas estimativas dos fatores de equivalência veicular em rodovias paulistas de pista dupla, com três ou mais faixas de tráfego em cada sentido. Essas estimativas foram obtidas a partir de dados empíricos coletados separadamente para cada faixa de tráfego, em intervalos de curta duração (5 ou 6 minutos). Foram utilizadas 53.655 observações, coletadas em oito estações de monitoramento, nos anos 2010 e 2011. O fator de equivalência foi calculado para cada intervalo através de uma equação obtida a partir do método de Huber, admitindo-se que a qualidade de serviço é a mesma para todas as faixas de tráfego naquele intervalo. Foi considerado como fluxo básico o da faixa da esquerda, nos intervalos em que são detectados apenas automóveis, e fluxo misto o da faixa da direita, em que passam automóveis e caminhões. Os resultados sugerem que: (1) em uma parte signicativa do tempo (52%), a qualidade de serviço não é a mesma em todas as faixas da rodovia; (2) o impacto marginal dos caminhões decresce à medida que a porcentagem de caminhões na corrente aumenta; e (3) as diferenças que existem no fator de equivalência em função do nível de serviço são menos evidentes em rampas mais íngremes, onde o efeito das limitações de desempenho dos caminhões é mais notado. A comparação deste estudo com outras duas pesquisas, em que foram utilizados dados gerados em simuladores de tráfego para estimar os fatores de equivalência, mostrou que as estimativas dos equivalentes veiculares obtidos usando dados empíricos são consistentemente maiores que as obtidas através de simulação. / The objective of this study is to evaluate the impact of heavy vehicles on the quality of service on Brazilian expressways (freeways and divided multilane highways), using passenger-car equivalents (PCEs) for heavy vehicles (trucks and buses). PCE estimates for expressways with three or more traffic lanes in each direction were obtained using traffic data collected over short time intervals (5 or 6 minutes) on expressways in the state of São Paulo. A total of 53,655 speed-flow observations, made at eight permanent trac sensor installations during 2010 and 2011, were used in this study. A PCE estimate was calculated for each time interval, using an equation derived from Huber\'s method, based on the assumption that the quality of service is the same across all traffic lanes during the time interval over which the traffic data is collected. Basic flow (passenger cars only) was assumed to be the observed traffic flow on the lane closest to the median, whereas mixed flow (passenger cars and heavy vehicles) was assumed to be the observed traffic flow on the lane closest to the shoulder. The results indicate that: (1) in a signicant portion of the time (52% of the observations) the quality of service is not the same across all traffic lanes; (2) the marginal impact of heavy vehicles decreases as the fraction of heavy vehicles in the traffic stream increases; and (3) the variations in PCE estimates due to the level of service are less evident on steeper grades, where the effect of heavy vehicles\' poorer performance is greater. PCE estimates obtained in this study were compared with PCEs obtained using simulation. The results indicate that PCE from empirical data are consistently higher than those estimated from simulation results.
84

Mecanismos de autoconfiguração e auto-otimização para arquiteturas virtualizadas que visam a provisão de qualidade de serviço / Mechanisms of self-configuration and self-ptimization for virtualized architectures aiming at the provision of quality of service

Luis Hideo Vasconcelos Nakamura 19 April 2017 (has links)
A proposta deste projeto de doutorado envolve a pesquisa sobre computação autônoma, focando na elaboração de mecanismos de autoconfiguração e auto-otimização para arquiteturas virtualizadas que buscam garantir a provisão de qualidade de serviço. Esses mecanismos fazem uso de elementos autônomos que são auxiliados por uma ontologia. Para isso, instrumentos de Web Semântica são utilizados para que a ontologia represente uma base de conhecimento com as informações dos recursos computacionais. Tais informações são utilizadas por algoritmos de otimização que, baseados em regras pré-definidas pelo administrador, tomam a decisão por uma nova configuração do sistema que vise a otimizar o desempenho. A configuração e a otimização geralmente envolvem elementos de software que precisam ser gerenciados pelos profissionais em Tecnologia da Informação (TI). Parte desse gerenciamento é composto de tarefas corriqueiras, por exemplo, monitorações, reconfigurações e verificações de desempenho. Tais tarefas demandam tempo e, portanto, geram custos e desgastes para os profissionais. Dessa forma, este projeto visa automatizar algumas dessas tarefas corriqueiras, facilitando o trabalho dos profissionais de TI e permitindo que eles foquem em tarefas mais críticas. Portanto, para alcançar esse objetivo foi realizado um estudo e a criação de mecanismos distribuídos baseados em Computação Autônoma e Web Semântica que permitem a configuração e otimização de recursos de forma automática. Os resultados individuais de cada mecanismo indicam que é possível alcançar um nível satisfatório de auto-configuração e auto-otimização para arquiteturas virtualizadas. O mecanismo de auto-configuração obteve melhores resultados com a abordagem de monitoração de recursos ao invés de utilizar previsões, já o mecanismo de auto-otimização provou que sua metodologia e algoritmo são aplicáveis na busca de uma configuração otimizada para atender ao SLA acordado. / The purpose of this PhD project involves the research about autonomic computing, focusing on the development of self-configuration and self-optimization mechanisms for virtualized architectures that aims to ensure the provision of Quality of Service. These mechanisms make use of autonomous elements that are aided by an ontology. Therefore, SemanticWeb tools are used in order to allow the ontology to represent a knowledge base with information of the computational resources. Such information is used by optimization algorithms that take the decision of choosing a new configuration that aims at optimizing the architecture performance based on rules predefined by the administrator. The configuration and optimization usually involve elements of software that must be managed by professionals in the Information Technology (IT) field and part of this management is composed of common tasks, for example, monitoring tests, reconfigurations and performance evaluations. These tasks take some time and therefore generate costs and distress to the professionals. Thus, this project aims at automating some of these common tasks, facilitating the work of IT professionals and allowing them to focus on more critical tasks. Therefore, to achieve this goal a study was performed and distributed mechanisms based on Autonomic Computing and Semantic Web were created allowing the configuration and optimization of resources automatically. The individual results of each mechanism indicate that it is possible to achieve a satisfactory level of self-configuration and self-optimization for virtualized architectures. The self-configuration mechanism has achieved better results with the resource monitoring approach rather than using predictions and the self-optimization mechanism has proven that its methodology and algorithm are applicable in the search for an optimized configuration to meet the SLA agreed.
85

Modelos e algoritmos para composição de Web services com qualidade de serviço / Models and algorithms for Web services composition with quality of service

Bruno Tardiole Kuehne 27 November 2009 (has links)
Este trabalho de mestrado apresenta a modelagem, a prototipação e os resultados do desenvolvimento de um middleware para composição dinâmica de Web Services denominado DWSC-M (Dynamic Web service Composition Middleware). O objetivo principal desse middleware é permitir que serviços sejam compostos dinamicamente considerando aspectos de qualidade de serviço na escolha dos serviços que fazem parte de um fluxo de composição. Para complementar o funcionamento do middleware DWSC-M foram propostos dois algoritmos para seleção de Web Services: o primeiro utiliza seleção aleatória e o segundo utiliza distância Euclidiana para seleção de serviços e considera, para tal finalidade, os parâmetros de QoS enviados pela requisição do cliente do serviço / This work presents the modeling, the prototype and the results of the developing of a middleware for dynamic composition of Web Services named DWSC-M (Dynamic Web Service Composition Middleware). The main focus of this middleware is to allow services being dynamically composed, considering aspects of quality of service in the choice of services that are part of the composite flow. Complementing the operation of the DWSC-M middleware two algorithms were proposed for Web Services selection : the first one uses Random selection and the second one uses Euclidean Distance for the selection of services and considers for this purpose the QoS parameters sent by the client service request
86

Políticas para servidores web baseados em sessões visando qualidade e diferenciação de serviços / Policies to web servers based on sessions aiming quality and differentiation of services

Alessandra Kelli Barbato 25 April 2008 (has links)
Este trabalho propõe políticas para servidores Web baseados em sessões, visando ao oferecimento de garantias de qualidade de serviço (Quality of Service - QoS) a seus usuários. Para o fornecimento de QoS, dois tipos de políticas são consideradas: as responsáveis pela diferenciação de serviços e as responsáveis pelo controle de admissão. Alguns algoritmos de escalonamento foram desenvolvidos com o objetivo de oferecer melhores serviços para as sessões prioritárias: o algoritmo de escalonamento baseado em sessão (SBSA) e o algoritmo de escalonamento baseado em sessão com diferenciação de serviços (SBSA-DS). Quanto ao controle de admissão, foram consideradas duas novas políticas, as quais utilizam diferentes parâmetros para a tomada de decisão e têm como objetivo garantir a finalização do maior número de sessões prioritárias. A partir dos resultados obtidos nos experimentos realizados por meio de simulação, constatou-se que o emprego dos algoritmos e das políticas desenvolvidos melhora o atendimento das sessões para as quais deve ser oferecido um serviço preferencial. Portanto, em servidores Web preocupados com a garantia de QoS para seus usuários, os quais interagem com o sistema por meio de sessões, o uso dessas novas técnicas se mostra adequado / This work considers policies for Web servers based on sessions, aiming at the guarantees of Quality of Service (QoS) to the systems users. Two types of policies are considered: the responsible for the differentiation of services and the responsible for the admission control. Some scheduling algorithms had been developed to offer better services for the priority sessions: the Session Based Scheduling Algorithm (SBSA) and the Session Based Scheduling Algorithm with Differentiation of Services (SBSA-DS). In relation to the admission control, two new policies had been considered, which use different parameters to help the decisions and have as objective guarantee the finalization of as many priority sessions as possible. From the obtained results of the experiments realized by mean of simulation, it is evidenced that the use of the developed algorithms and policies improves the attendance of the sessions that deserve preferential service. Therefore, in Web servers worried in the guarantee the QoS for their users, which interact with the system by sessions, the use of these new techniques reveals adequate
87

Desenvolvimento de um gerador de carga de trabalho baseado em sessões para servidores web / Development of a generator workload session based for web servers

Dayse Silveira de Almeida 13 April 2011 (has links)
Esta dissertação de mestrado apresenta o projeto, implementação e teste de um gerador de carga de trabalho para servidores Web que permite a caracterização de sessões e que representa uma carga real. O gerador desenvolvido gera carga visando à alimentar programas que simulam o comportamento de servidores Web. Para a definição dos parâmetros utilizados no gerador de carga sintética desenvolvido, diversos estudos sobre a carga em servidores Web encontrados na literatura, logs de servidores Web reais e benchmarks para servidores Web, foram utilizados. Vários algoritmos de controle de admissão e de escalonamento de requisições descritos na literatura foram implementados para teste e validação do gerador desenvolvido. Visando a utilização de sessões, é proposto nesta dissertação um algoritmo de controle de admissão, RED-SB (Random Early Detection - Session Based) que se baseia em um algoritmo (RED) que não considera sessão. Esses algoritmos foram executados utilizando-se um modelo de simulação de servidor Web com suporte a diferenciação de serviços, chamado SWDS (Servidor Web com Diferenciação de Serviços) / This MSc dissertation presents the design, implementation and tests of a workload generator for Web servers that allows the characterization of sessions and represents a real workload. The generator developed generates a workload to be used as an input to programs that simulate the behavior of Web servers. For the definition of the parameters used in the synthetic workload generator developed, several studies about the web server load described in the literature, actual web server logs and benchmarks for Web servers were used. Several algorithms for admission control and scheduling of requests described in the literature were implemented for testing and validation of the generator developed. Aiming at the utilization of sessions, this dissertation proposes an admission control algorithm RED-SB (Random Early Detection - Session based) which is based on an algorithm (RED) that does not consider session. These algorithms were implemented using a simulation model ofWeb server that supports service differentiation, called SWDS (Web Server with Service Differentiation)
88

Desenvolvimento de mecanismos para automatização de planejamento e execução de experimentos em sistemas orientados a serviço / Development of mechanisms for automating the planning and execution of experiments in a service-oriented systems

Nunes, Luiz Henrique 16 June 2014 (has links)
O planejamento de experimentos em sistemas computacionais não é uma tarefa trivial, pois envolve diversas etapas tais como, o planejamento propriamente dito, a execução dos experimentos e a análise dos resultados. A definição e a utilização de metodologias adequadas para cada uma destas etapas facilita a obtenção dos resultados de um experimento em um sistema computacional. Neste trabalho são apresentados mecanismos para auxiliar o planejamento e execução de experimentos em sistemas orientados a serviços. O planejamento de experimento é realizado a partir de um modelo baseado nos conjuntos de entradas comuns a arquiteturas orientadas a serviço. A execução deste planejamento é feita em um ambiente colaborativo real, a qual auxilia a identificação de gargalos que não estão presentes em simulações ou modelos analíticos. Um estudo de caso aplicado na arquitetura WSARCH, possibilitou avaliar seu desempenho e identificar problemas de configuração / The design of experiments in computational systems is not a trivial task as it involves several steps such as planning and execution of the experiments and the analyse of the results. The use of appropriate methodologies for each of these steps makes it easier obtain the experiment results of a computer system. In this dissertation, mechanisms to assist the planning and execution of experiments in service-oriented systems are presented. The planning of the experiment is made according to a model based on a set of common entries for service-oriented architectures. The experiment execution is performed in a real collaborative environment, which helps to identify bottlenecks that are not found in simulations or analytical models. A study case applied in WSARCH architecture, enables to evaluate the performance and identify configuration problems
89

Modelos de negócio para ambientes de computação em nuvem que consideram atributos de qos relacionados a desempenho e a segurança / Business models for cloud computing environments that consider attributes related to performance and security

Batista, Bruno Guazzelli 10 November 2015 (has links)
Este projeto de doutorado tem como objetivo definir modelos de negócio para ambientes de computação em nuvem que consideram desempenho e segurança como atributos de qualidade de serviço durante a definição do contrato. Para isso, foi necessário quantificar o impacto causado no desempenho de um ambiente em nuvem quando diferentes mecanismos de segurança foram utilizados. Para a quantificação da sobrecarga foram utilizadas técnicas e metodologias disponíveis na literatura que visam garantir a integridade, disponibilidade e confidencialidade dos dados, abordando desafios que envolvem o acesso, armazenamento e manipulação de dados em serviços oferecidos por meio de máquinas virtuais. Experimentos executados possibilitaram analisar o comportamento das variáveis de resposta na utilização de cenários com diferentes mecanismos de segurança e cargas. Dessa forma, foi possível confrontar a sobrecarga imposta pelos mecanismos de segurança com a alteração da quantidade de recursos aplicada por um módulo proposto, chamado ReMM. De acordo com os resultados, o ReMM alterou a quantidade de recursos virtuais alocados utilizando dois algoritmos de escalabilidade, garantindo as exigências definidas no contrato de níveis de serviço. No entanto, a alteração dos recursos computacionais para contrapor a sobrecarga imposta pelos mecanismos de segurança impactou nos custos finais dos serviços. Dessa forma, a sobrecarga de segurança, desempenho e custo foram considerados na definição dos modelos de negócios em diferentes ambientes de computação em nuvem. / This PhD thesis has as main goal defining business models for cloud computing environments that consider performance and security as quality of service attributes during the service level agreement definition. For this, it was necessary quantifying the impact on the performance of a cloud environment in which different security mechanisms were applied. Techniques and methodologies available in the literature that aim ensuring the integrity, availability and confidentiality of data were used to quantify the overhead, addressing challenges related to access, storage and manipulation of data in services offered through virtual machines. Experiments were executed, in which the response variable behaviors were analyzed, using scenarios with different security mechanisms and workloads. In this way, it was possible to compare the overhead imposed by the security mechanisms with the changes in the quantity of resources applied by a module proposed, called ReMM. According to the results, the ReMM changed the amount of allocated virtual resources using two scalability algorithms, ensuring the requirements defined in service level agreement. However, the changes in the computational resources to face the overhead imposed by the security mechanisms influenced the final costs of the service. Therefore, security overhead, performance and cost were considered in the definition of business models in different cloud computing environments.
90

Redução da taxa de queda de chamada em rede celular GSM por meio de ajustes dos parâmetros de cobertura / Reducing the rate of fall call GSM mobile network by means of adjustment of parameters of coverage

Pivaro, Gabriel Fernando 16 May 2008 (has links)
Um estudo sobre as principais causas de quedas de chamadas em célula de rede móvel GSM é realizado por meio da análise estatística do tráfego. O objetivo é minimizar o efeito dessas causas, por meio da alteração de parâmetros de cobertura, como controle dinâmico de potência, borda de cobertura entre células e definição correta de células vizinhas. Para uma operadora celular reduzir a taxa de queda de chamadas (TQC), por intermédio da otimização de parâmetros de cobertura, alterados via comandos remotos, elimina os custos com alterações físicas, como altura das antenas e instalações de novas estações rádio base. Entretanto, alterações de parâmetros devem ser cuidadosamente realizadas, pois podem degradar outros indicadores e acarretar redução da área de cobertura e do tráfego. As duas principais causas da TQC são as quedas repentinas, ocasionadas por falha nos equipamentos envolvidos, ou comportamento dos assinantes e falha na execução do handover e as quedas devido ao nível baixo de sinal na interface aérea. Neste trabalho, com base em dados estatísticos do tráfego na rede GSM, foi escolhida uma célula operando em 900 MHz que apresentava alta TQC. Ajustando os parâmetros de cobertura, a TQC mensal passou de 8,6% para 1,6% e não houve degradação nos demais indicadores de desempenho. / A study about the main causes of dropped calls in mobile network cell GSM is made by means of statistical traffic analysis. The aim is to minimize the effect of these causes through coverage parameters changes, such as dynamical potency control, coverage border between cells, correct definition of neighboring cells. The reduction of dropped call rate by means of optimization of coverage parameters, changed via remote commands, eliminates costs with physical changes, such as the height of the antennas and installation of new radio base station. Parameter changes, however, must be carefully made because they can degrade other indicators and bring coverage area and traffic reduction. The two main causes of dropped call are sudden loss of connection, due to failure in the equipment used, behavior of subscribers and the failure in handover and drops due to the low signal strength in the air interface. In this study, based on statistical data of GSM traffic, a cell operating in 900 MHz that presented high dropped call rate was chosen. Adjusting the coverage parameters, the monthly dropped call rate went from 8.6% to 1.6% and there wasn\'t any degradation of any other performance indicators.

Page generated in 0.0975 seconds