• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 3
  • 2
  • Tagged with
  • 141
  • 141
  • 100
  • 81
  • 19
  • 17
  • 17
  • 14
  • 13
  • 12
  • 12
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Técnicas de modelagem para a análise de desempenho de processos de negócio / Modeling techniques for business process performance analysis

Braghetto, Kelly Rosa 21 September 2011 (has links)
As recentes pesquisas na área de Gestão de Processos de Negócio (GPN) vêm contribuindo para aumentar a eficiência nas organizações. A GPN pode ser compreendida como o conjunto de métodos, técnicas e ferramentas computacionais desenvolvidas para amparar os processos de negócios. Tipicamente, a GPN é fundamentada por modelos de processos. Esses modelos, além de permitirem a automação da configuração e execução, aumentam a capacidade de análise dos processos de negócio. Apesar de auxiliar os especialistas de negócio nas diferentes fases envolvidas no ciclo de vida de um processo de negócio (projeto, configuração, implantação/execução e a análise), os modelos definidos em linguagens específicas de domínio, como a BPMN (Business Process Model and Notation), não são os mais apropriados para amparar a fase de análise. De formal geral, esses modelos não possuem uma semântica operacional formalmente definida (o que limita o seu uso para a verificação e validação dos processos) e nem mecanismos para quantificar o comportamento modelado (o que impossibilita a análise de desempenho). Neste trabalho de doutorado, nós desenvolvemos um arcabouço que ampara e automatiza os principais passos envolvidos na análise de desempenho de processos de negócio via modelagem analítica. Nós estudamos a viabilidade da aplicação de três formalismos Markovianos na modelagem de processos de negócio: as Redes de Petri Estocásticas, as Álgebras de Processo Estocásticas e as Redes de Autômatos Estocásticos (SAN, do inglês Stochastic Automata Networks). Escolhemos SAN como formalismo base para o método proposto neste trabalho. Nosso arcabouço é constituído por: (i) uma notação para enriquecer modelos de processos de negócio descritos em BPMN com informações sobre o seu gerenciamento de recursos, e (ii) um algoritmo que faz a conversão automática desses modelos não-formais de processos para modelos estocásticos em SAN. Com isso, somos capazes de capturar o impacto causado pela contenção de recursos no desempenho de um processo de negócio. A partir de um modelo em SAN gerado com o nosso arcabouço, podemos predizer variados índices de desempenho que são boas aproximações para o desempenho esperado do processo de negócio no mundo real. / Recent results in the research field of Business Process Management (BPM) are contributing to improve efficiency in organizations. BPM can be seen as a set of methods, techniques and tools developed to support business processes in their different requirements. Usually, the BPM techniques are based on a process model. In addition to enabling automated process configuration and execution, these models also increase the analizability of business processes. Despite being able to support business specialists in different phases of the life cycle of a business process (design, configuration, execution, and analysis), the models created in domain-specific languages, such as BPMN (Business Process Model and Notation), are not the most appropriated ones to support the analysis phase. Generally, these models have neither a formally defined operational semantics (which hinders their use for verification and validation), nor mechanisms to quantify the modeled behavior (which hinders their use for performance analysis). In this PhD research, we developed a framework to support and to automatize the main steps involved in the analytical modeling of business processes aiming performance evaluation. We studied the viability of applying three Markovian formalisms in business process modeling: Stochastic Petri Nets, Stochastic Process Algebras and Stochastic Automata Networks (SAN). We have chosen SAN to support the method proposed in this work. Our framework is composed of: (i) a notation to enrich BPMN business process models with information concerning the associated resource management and (ii) an algorithm that automatically converts these non-formal business process models in SAN stochastic models. With this, we are able to capture the impact caused by resource contention in the performance of a business process. From a model generated through our framework, we are able to extract varied performance indices that are good approximations for the expected process performance in the real world.
32

Desenvolvimento do teste de sensibilidade tátil da mão / Development of the test haptic perception of the hand (THPH)

Nascimento, Leonardo Penteado 31 July 2014 (has links)
Contextualização: Os testes de sensibilidade tátil da mão existentes não permitem considerar diferentes receptores, detectar variações na faixa de normalidade ou caracterizar o processo de desenvolvimento e envelhecimento. Objetivo: Elaborar um conjunto de atividades-testes para avaliar sensibilidade tátil da mão que forneça escore e tempo de execução das tarefas, com rotina de aplicação e coleta de dados detalhada em manual. Método: Para elaboração do teste foi realizada revisão da literatura e reuniões de grupo para criação de atividades-testes, seleção de materiais e elaboração do manual. Teste e manual foram submetidos à avaliação de 30 pareceristas, em 3 fases, cada uma com 10 examinadores. Resultado: O Teste de sensibilidade tátil da mão, denominado THPH (do inglês, test of haptic perception of hand) desenvolvido tem por objetivo graduar a sensibilidade tátil manual, considerando diferentes domínios sensoriais: depressão, elevação, textura, densidade, barognosia e reconhecimento de formas planas, tridimensionais de pequena e grande elevação. Cada atividade-teste possui um material específico. O escore pode variar de 0 a 57, sendo 0 a pior nota. Na primeira etapa foram sugeridas 12 modificações e aceitas 9 delas. As estruturas de teste de depressão, elevação, barognosia e reconhecimento de formas foram consideradas adequadas. Na segunda etapa foram sugeridas 3 modificações e aceita uma. As estruturas do teste de depressão foram modificadas novamente. Na terceira etapa foram dadas sugestões de continuidade do estudo. Conclusão: O processo metodológico escolhido permitiu a elaboração de um manual descritivo de atividades-testes específicas para avaliar seis diferentes domínios da sensibilidade tátil a partir da organização de grupo de trabalho e direcionamento fornecido por 30 pareceristas / Background: The tests of tactile sensitivity of hand do not allow considering different receptors, to detect variations in the range of normality or characterize the process of development and aging. Objective: To develop a set of activities-tests to assess tactile sensitivity of the hand to provide score and runtime, routine of application and collection of data. Method: It was performed a literature review, group meetings for test creation and materials testing and preparation of the manual. Test and its manual were submitted to 30 reviewers in 3 stages, each one with 10 examiners. Result: The Test of Haptic Perception of Hand (THPH) developed aims to graduate tactile sensitivity of hand according to the different sensory domains: depression, elevation, texture, density, weight perception and shape recognition, each one with the respective material. The score may range from 0 to 57, with 0 being the worst rating. In the first stage with participation of 10 examiners it was suggested 12 changes, of which 9 were accepted. The structures of the test domain depression, elevation, and shape recognition barognosis were considered adequate. In the second stage the structures of the depression were changed again. In the third step suggestions were given to continuity of the study. Conclusion: The chosen methodological process allowed the preparation of a manual illustrative and specific material to evaluate six different domains of tactile manual with the group organization and direction provided by 30 examiners in three phases
33

Iluminação natural em edifícios de escritórios: metodologia para avaliação do desempenho luminoso / Daylighting in office buildings: a methodology for evaluating luminous performance

Pereira, Daniela Cardoso Laudares 27 April 2017 (has links)
Esta tese parte da hipótese de que nem todos os edifícios de escritório com certificação ambiental na cidade de São Paulo, construídos entre os anos 2000 a 2016, atendem de modo satisfatório as condições de iluminação natural, segundo as recomendações hoje em vigor. Esses edifícios contemporâneos possuem grandes áreas envidraçadas em suas fachadas, sem proteção solar, que causam problemas de conforto térmico e luminoso. Para evitar o ofuscamento, os usuários acionam proteções solares internas como telas e persianas, o que acaba por impedir ou diminuir o acesso à luz natural. A pesquisa realizada fez um levantamento dos padrões construtivos prevalecentes em 28 edifícios de escritório que se enquadram na especificação descrita acima para verificar questões como: a profundidade da planta, transmissão luminosa dos vidros, WWR (Wall Window Ratio), entre outras. Os dados encontrados serviram para a elaboração de modelos referenciais, usados em simulações computacionais, com o objetivo de verificar a influência de variáveis arquitetônicas no desempenho da iluminação natural. As simulações foram realizadas no plug-in Diva do programa Rhinoceros 3D, que simula a iluminação natural de forma integrada com os softwares Radiance/DAYSIM, já validados pela comunidade científica internacional. O tratamento dos dados foi feito através de um método inédito de avaliação do desempenho luminoso e os resultados obtidos mostraram que 60% dos cenários analisados foram reprovados. Esta tese propõe uma metodologia de avaliação do desempenho luminoso de edifícios de escritório que considere de modo integrado a disponibilidade de luz natural, o conforto visual e o consumo de energia. / This thesis is based on the hypothesis that not all office buildings with environmental certification in the city of São Paulo, constructed between 2000 and 2016, meet satisfactorily the conditions of daylighting, according to the recommendations currently in force. These contemporary offices have large glass areas without sun protection in their facades, causing problems of thermal and luminous comfort. In order to avoid glare, users employ indoor shading devices such as rollers and blinds, which ultimately prevent or reduce access to daylight. This research has carried out a survey on the prevailing constructive patterns of 28 office buildings that follow the specifications described above, to verify issues such as plan depth, light transmission of glasses, WWR (Wall Window Ratio), among others. The collected data were used to elaborate reference models used in computational simulations, aiming at verifying the influence of architectural variables on the performance of daylighting. The simulations were carried out with the Diva plug-in for Rhinoceros 3D program, which simulates daylighting, integrated with software Radiance/DAYSIM, already validated by the international scientific community. The data treatment was carried out through an innovative method for evaluating luminous performance, and the obtained results showed that 60% of the analyzed scenarios were disapproved. This thesis proposes that the methodology for evaluating the luminous performance of office buildings should consider the availability of daylight, visual comfort, and energy consumption in an integrated way.
34

Considerações sobre a drenagem subsuperficial na vida útil dos pavimentos rodoviários. / Influence of subsurface drainage in the service life of roadway pavements.

Azevedo, Angela Martins 22 October 2007 (has links)
Tem-se verificado, na prática, que a falta de drenagem subsuperficial é um dos principais fatores de deterioração precoce dos pavimentos. Ainda, verifica-se que são relativamente poucos os procedimentos de dimensionamento e modelos de análise de previsão de desempenho que consideram efetivamente o efeito deletério da drenagem na vida útil dos pavimentos. No entanto, observa-se que pesquisas e experiências estrangeiras não estabeleceram ainda uma correlação quantitativa confiável entre a presença dos dispositivos de drenagem e o desempenho dos mesmos. No trabalho foi realizada análise de sensibilidade dos modelos da AASHTO (versão de 1993) e HDM-4, considerados os mais difundidos na atualidade. Os modelos empregam coeficientes de drenagem para a consideração dos efeitos danosos da presença de água livre no interior de estruturas de pavimentos rígidos e flexíveis. Teoricamente, verificou-se que os modelos são sensitivos quanto à influência das condições de drenagem no desempenho dos pavimentos. Foram analisados dados reais de certa malha viária no interior do estado de São Paulo e verificou-se, na prática, que os pavimentos flexíveis sem acostamento pavimentado, ou seja, com condições precárias de drenagem, têm apresentado desempenho inferior quando comparados com estruturas dotadas de acostamentos pavimentados mais impermeáveis. Constatou-se a dificuldade de se adotar os coeficientes de drenagem nos modelos analisados, apesar da grande importância da fixação adequada no dimensionamento. Comenta-se no trabalho que, além da existência de dispositivos de drenagem subsuperficial, é necessário checar a sua continuidade e capacidade hidráulica ao longo de todo o sistema. Sugerem-se procedimentos para o dimensionamento hidráulico do sistema de drenagem de pavimentos e a necessidade de se considerar a avaliação econômica ao longo de um período, de acordo com o desempenho esperado do pavimento (LCCA - Life Cycle Cost Analysis) quando da definição da concepção de pavimentos rodoviários drenantes, principalmente quando submetidos a tráfego pesado e em condições climáticas desfavoráveis. / There has been verified, in practice, that the absence of pavement drainage is one of the main factors of early degradation of pavements. More, there are few procedures of design and performance analysis that effectively consider the damage of water during the design period. However, foreign experiments and researches do not establish a reliable correlation between the construction of pavement drainage features and pavement performance. In this text, there has been analyzed the AASHTO (version of 1993) and HDM-4 models, considered the most spread out in the present time. These models consider the damage effects of free water inside flexible or rigid pavement structures. Theoretically, it was verified that the models are sensitive about the influence of the conditions of draining in the pavement performance. It had been analyzed real data of certain roadway network in the interior of the state of São Paulo and it was verified, in practical, that the flexible pavements without paved shoulder, that is, with precarious conditions of drainage, have presented lower performance when compared with structures endowed with paved shoulders more impermeable. It was evidenced the difficulty of adopting the drainage coefficients in the analyzed models, although the great importance of the setting adjusted in the design. It is commented that, beyond the existence of devices of subsurface draining, is necessary to check its continuity and hydraulical capacity throughout the system. It\'s suggested procedures for the hydraulical design of the pavement drainage system and the necessity of considering the economic evaluation throughout a period, in accordance with the waited performance (LCCA - Life Cycle Cost Analysis) when the definition of the conception of road pavements, mainly when submitted the heavy traffic and in unfavorable climatic conditions.
35

Sistema de visão computacional sobre processadores com arquitetura multi núcleos. / System of computational vision over multicore architecture processors.

Hiramatsu, Roberto Kenji 20 May 2008 (has links)
Esta tese apresenta um estudo sobre a implementação de sistema de detecção e reconhecimento de faces no processador CELL na plataforma CBE, utilizando um sistema Playstation 3. Inicialmente, diversas abordagens para reconhecimento e detecção de faces são estudadas, bem como arquiteturas de processador multi núcleos. São apresentadas três implementação, sendo a segunda implementação premiada com quarto colocado no IBM CELL UNIVERSITY CHALLENGE 2007 para desenvolvimento de programas para plataforma Cell BE. A terceira implementação apresenta os resultados interessantes relacionados a vetorização do processamento dos dados da detecção de objetos e os recursos adotados para obter o melhor desempenho. / This thesis presents a study of face detection implementation on CBE plataform and employ the system with Playstation 3 hardware. Several approaches for face detection and recognition are studied as well as multicore processor architetures. We implemented three versions of system. First implementation was a naive reference implementation with worst performance. Second implementation granted fourth prize in IBM CELL UNIVERSITY CHALLENGE 2007 that incentive development on CBE plataform. Third implementation had most interesting results with vectorized approaches on code of object detection.
36

Eficiência produtiva no terceiro setor: um estudo comparativo de desempenho entre organizações filantrópicas asilares / Productive efficiency on the third sector: a comparative study of performance among philanthropic senior housing organizations

Milani Filho, Marco Antonio Figueiredo 15 September 2009 (has links)
Este trabalho objetivou classificar, sob a perspectiva da eficiência, as organizações filantrópicas asilares do estado de São Paulo, assim como investigar se o grau de dependência por recursos públicos e privados, os resultados financeiros e, também, o nível de disclosure dessas entidades guardaram relação significativa com o respectivo nível de eficiência produtiva. A amostra foi composta por 42 instituições de longa permanência para idosos (ILPIs) sediadas no estado de São Paulo, cujos dados de insumos (capital e trabalho) foram relacionados com seus produtos (representados pelos indicadores de desempenho estabelecidos pela Agência Nacional de Vigilância Sanitária Anvisa), utilizando-se como período de referência o ano de 2008. O nível de eficiência relativa das entidades foi calculado através da Análise Envoltória de Dados (Data Envelopment Analysis - DEA) com retornos variáveis de escala e orientação aos insumos. As hipóteses de pesquisa foram testadas pela análise de regressão linear, cujas variáveis dependentes foram o grau de eficiência das ILPIs e as independentes foram valores nominais e por residente de: transferências públicas, receitas próprias e transferências privadas, receitas totais, resultados financeiros e disclosure. Os resultados apontaram que não existia relação estatisticamente significativa entre o grau de dependência por recursos públicos e o nível de eficiência, mas verificou-se que as variáveis resultado financeiro e grau de disclosure estão significativamente relacionadas com o nível de eficiência. Um ponto relevante sinalizado pela pesquisa foi o baixo grau de transparência e evidenciação de dados financeiros das ILPIs pesquisadas, as quais não divulgam alguns elementos considerados de publicação obrigatória pela atual legislação, refletindo a ausência de pressão, por parte de órgãos governamentais de fiscalização e por parte da própria sociedade civil, para a redução de assimetrias informacionais. Como parâmetro de referência, organizações eficientes servem de benchmark para as entidades que apresentam consumo excessivo de recursos diante de determinado desempenho, fato esse que sugere maior atenção dos stakeholders para que incentivem a melhoria de eficiência das entidades relacionadas. Considerando a escassez de trabalhos com abordagem quantitativa para a avaliação padronizada de desempenho de organizações do Terceiro Setor, este trabalho fomenta a discussão conceitual sobre a necessidade da adoção de elementos objetivos para alimentar os modelos decisórios para a alocação de recursos às organizações sem fins lucrativos. / This study aimed to classify, from the perspective of efficiency, the philanthropic organizations for elderly people in the State of São Paulo and to investigate whether the degree of dependence on public and private resources, earnings and also the level of disclosure of these entities are significantly related to the level of productive efficiency. The sample consisted of 42 long-stay institutions for elderly (ILPIs) based in the State of São Paulo, whose data inputs (capital and labor) were associated with their products (represented by the indicators of performance established by the National Sanitary Surveillance Agency - Anvisa), using as reference the year 2008. The level of relative efficiency of the organizations has been calculated by Data Envelopment Analysis (DEA) based on variable returns of scale and oriented input. The research hypotheses have been tested by linear regression analysis whose dependent variables were the degree of efficiency of ILPIs and the independent variables were the nominal and per resident values: government transfers, private transfers and revenue, total revenue, financial performance and disclosure. The results have not pointed out statistically significant relationship between the degree of dependence on public resources and the level of efficiency, but they have pointed out that both variables, earnings and degree of financial disclosure, are significantly related to the level of efficiency. A relevant issue raised by this research was the low level of transparency and disclosure of the ILPIs financial data, which do not disclose mandatory elements according to the current legislation, reflecting the lack of pressure from government surveillance and from civil society to the reduction of informational asymmetries. As a referential parameter efficient organizations work as benchmark for other organizations which present excessive consumption of resources facing certain performance, such a fact which suggests more attention from the stakeholders in order to motivate the efficiency of mentioned entities. Considering the scarcity of studies under a quantitative approach towards a standardized evaluation of the performance of Third Sector organizations, this work promotes the conceptual discussion on the necessity of adopting objective elements so as to feed the decision making models for the allocation of resources to nonprofitable organizations.
37

Unificando conceitos de avaliação de desempenho, engenharia de desempenho e teste de software para a análise de sistemas computacionais / Unifying concepts of performance evaluation, performance engineering and performance testing for computer systems analysis

Stabile, Rafael de Souza 07 June 2016 (has links)
Este projeto de mestrado apresenta uma visão de como áreas da Ciência da Computação relacionadas a desempenho (Avaliação de Desempenho, Engenharia de Desempenho de Software e Teste de Desempenho de Software) podem ser relacionas e também propõe uma metodologia de análise de desempenho que contém conceitos das áreas anteriormente apontadas, para que esta seja mais completa e possa ser compreendida por profissionais das três áreas. Para formalizar esse relacionamento, foi construída uma ontologia que mostra como ocorre a correlação entre as áreas, e a partir dessa metodologia proposta, foi possível analisar o desempenho da ferramenta ValiPar, em sua versão paralela e concluir que o principal gargalo com relação a escalabilidade dela é sua porção executada sequencialmente. Por fim, foi observado que a metodologia apresenta vantagens se comparada as demais, como uma formalização nas suas etapas de análise. / This master project presents a view of how Computers Science areas related to performance (Performance Evaluation, Software Performance Engineering and Software Performance Testing) can be related and also proposes a performance analysis methodology that contains concepts from all areas previously identified, so that it is more complete and can be understood by professionals of these three areas. To formalize this relationship, an ontology that shows how the correlation occurs between areas was built. And from the proposed methodology, it was possible to analyze the performance of ValiPar tool, in its parallel version, and it was concluded that the main bottleneck with respect to its scalability is its portion executed sequentially. Finally, it was observed that the proposed methodology has advantages compared to others, as a formalization in its analysis steps.
38

Análise de desempenho do nsQUIC: um módulo para smulação do protocolo QUIC / Performance analysis of nsQUIC: a simulation module for the QUIC protocol

Camarinha, Diego de Araujo Martinez 23 August 2018 (has links)
Várias características da Internet mudaram drasticamente desde que o TCP foi criado, como o maior compartilhamento de recursos devido à maior quantidade de usuários, maior largura de banda disponível, a existência de muitas conexões que podem percorrer longas distâncias e a ubiquidade das redes sem fio. Confrontado com essas novas características, o TCP apresenta diversas limitações. Dentre elas estão a subutilização da rede quando a largura de banda é da ordem de centenas de Gbps, o favorecimento de conexões que possuem pouco atraso (poucas dezenas de milisegundos), a incapacidade de distinção de causas de perdas de pacote e a demora para estabelecimento de conexões seguras (até 3 RTTs). Nesse contexto, com o objetivo de tornar o transporte de dados na Internet mais rápido e eficiente, a Google desenvolveu o protocolo QUIC. O QUIC propõe diversos avanços em relação aos protocolos existentes, como um novo mecanismo para estabelecimento de conexão e controle de congestionamento otimizado. Resultados apresentados pela Google mostraram claro ganho de desempenho em relação ao TCP, justificando o trabalho de tornar o QUIC um padrão IETF da Internet. Porém, esses resultados são impossíveis de serem verificados porque nos relatórios divulgados não há informação suficiente para que os cenários de teste sejam reproduzidos e porque é implausível possuir a mesma infraestrutura para os testes que a Google tem. Neste trabalho, avaliamos o desempenho do protocolo QUIC em diversos cenários de rede, comparando-o com o desempenho de várias implementações do TCP, principalmente o CUBIC. Diferente do realizado na literatura, todos os cenários utilizados são bem descritos, permitindo a reprodutibilidade dos experimentos. Além disso, para a realização dos experimentos foi criado um novo módulo que implementa o QUIC no simulador de redes NS-3. Este módulo está disponível como software livre, permitindo que outros pesquisadores usem o módulo para replicar e verificar nossos experimentos e para criarem novos experimentos de forma reprodutível. Ademais, eles também podem usar o módulo como uma ferramenta para avaliar, de maneira rápida, o comportamento de novas técnicas dentro do protocolo. / Many characteristics of the Internet have drastically changed since TCP was created such as the increase on resource sharing due to a larger number of Internet users, the growth of available bandwidth, the existence of many connections that may travel long distances and the ubiquity of wireless networks. When faced with those new characteristics, TCP showed severe limitations. Among them are network underutilization in high bandwidth environments of hundreds of Gbps, favoring of connections with small delays (few tens of milliseconds), incapacity of distinguishing packet loss causes and high delays for establishing secure connections (up to 3 RTTs). In this context, with the goal of making Internet data transport faster and more efficient, Google has developed the QUIC protocol. QUIC proposes many advances compared to existing protocols, such as a new mechanism for establishing connections and an optimized congestion control algorithm. Google has reported results indicating that QUIC performs better than TCP, justifying the work on making QUIC an IETF Internet standard. However, those results cannot be verified because on the published reports there is not enough information to reproduce the test scenarios and it is implausible to have the same test infrastructure Google has. In this work, we evaluate QUICs performance in a number of network scenarios, comparing it with the performance of different TCP flavours, specially TCP CUBIC. Unlike other works in the literature, all scenarios are well described, enabling experiment replicability. Furthermore, to run experiments we created a new module that implements QUIC on the network simulator NS-3. The module is available as free software, allowing other researchers to use it to reproduce and verify our experiments and to create new ones in a replicable way. Additionally, they can use the module as a tool to quickly assess the behaviour of new techniques in the protocol.
39

Mecanismos para a melhoria do desempenho de sistemas RFID passivos / Efficient mechanisms for performance improvement in passive RFID systems

Mota, Rafael Perazzo Barbosa 23 November 2015 (has links)
A Identificação por radiofrequência (Radio Frequency Identification - RFID) tem revolucionado a forma de identificar objetos, sendo usada desde aplicações de controle de estoques até o processo automatizado de pagamentos. Sua ampla aceitação e aplicabilidade tem estimulado pesquisadores a criar cada vez mais aplicações. Um problema chave da RFID são as colisões que ocorrem na identificação por meio dos protocolos de acesso múltiplo. Como, na prática, um leitor precisa identificar várias etiquetas em sua área de cobertura, algumas etiquetas podem responder ao mesmo tempo o que gera colisões e desperdício de recursos. Por este motivo, torna-se de grande valor um estudo abrangente sobre como melhorar a identificação das etiquetas de modo a reduzir o número de colisões. Além disso, aspectos como consumo de energia e tempo necessário para identificação também devem ser levados em consideração, uma vez que a utilização cada vez maior de dispositivos alimentados à bateria tem sido observada na prática. Esta tese investiga a categoria de protocolos anticolisão denominada Frame Slotted Aloha - FSA, pois é a categoria que possui maior potencial de utilização prática em sistemas RFID. Além disso, as diferentes métricas de análise de desempenho são também analisadas e categorizadas, uma vez que identificou-se que um conjunto de métricas devem ser observadas com o intuito de realizarem-se comparações justas com as propostas da literatura. Descobriu-se que a maioria das propostas não levam em consideração os aspectos chave de tempo e energia, assim como a característica de ser fácil de implementar e baixa complexidade. Esta tese propõe quatro algoritmos que visam diminuir o consumo de energia e o tempo do processo de identificação das etiquetas mantendo-se as características de baixa complexidade e similaridade com o padrão atual EpcGlobal Classe 1 Geração 2 (C1G2). O primeiro mecanismo visa diminuir a quantidade de respostas desnecessárias em cenários de localização e rastreamento. Os demais consistem em três propostas de algoritmos anticolisão para sistemas RFID. Os dois primeiros diferem na forma como o tamanho inicial de quadro é definido e como as colisões são tratadas, representando evoluções progressivas em direção a um melhor desempenho. O terceiro considera a ocorrência do efeito captura, o que traz a necessidade de mudanças no funcionamento do algoritmo anterior. Resultados de simulação mostram que os quatro mecanismos podem melhorar propostas existentes sem aumento de complexidade, resultando consequentemente em diminuição de recursos desperdiçados. Além disso também foram desenvolvidos dois softwares de apoio aos mecanismos propostos: nsRFIDsim e jRFIDsim. O primeiro trata-se de um módulo para o simulador ns-2 que simula um sistema RFID passivo. O segundo implementa uma proposta de benchmark para avaliação de desempenho de algoritmos anticolisão para RFID, visando fornecer para a comunidade científica uma forma padronizada de avaliar este tipo de algoritmo. / The Radio Frequency Identification - RFID has revolutionized the way objects are identified, being used in several areas, from inventory control applications to automated payment process. Its wide acceptance and applicability has stimulated researchers to create more and more new applications. One RFID key problem is the collisions on identification by means of multiple access protocols. Since generally, a reader needs to identify multiple tags in its coverage area, some tags tend to reply at the same time which can cause collision and waste of resources. For this reason a comprehensive study on how to improve the identification of tags in order to reduce the number of collisions becomes important. Additionally, issues such as energy consumption and time required for identification must also be taken into consideration, since an increasing use of battery-powered devices has been observed in practice. This thesis investigates the category of anti-collision protocols called Frame Slotted Aloha - FSA, as it is the category that has the greatest potential for practical use in RFID systems. Further analysis of the different performance metrics are also analyzed and categorized, since it was identified that a set of metrics must be observed in order to carry out up fair comparisons with the proposals found on the literature. It was found that most of the proposals do not consider the key aspects of time and energy as well as the characteristic of being easy to implement and having low complexity. This thesis proposes four algorithms aimed at reducing the consumption of energy and the time to identify the tags while maintaining the characteristics of low complexity and similarity to the current standard EPCglobal Class 1 Generation 2 (C1G2). The first mechanism aims to decrease the unnecessary answers in locating and tracking scenarios. The other ones consist of three proposals for anti-collision algorithms for RFID systems. They differ in how the initial size is defined and how collisions are resolved, representing progressive evolutions toward a better performance. The third one considers the occurrence of the capture effect, which brings the need for changes in the previous algorithm operation. Simulation results show that the four mechanisms can improve existing proposals without increasing complexity, resulting in consequent energy savings. In addition we have also developed two softwares to evaluate the proposed mechanisms: nsRFIDsim and jRFIDsim. The former is a module for the ns-2 simulator that simulates a passive RFID system. The second one implements a proposal for benchmark performance evaluation of anti-collision algorithms for RFID in order to provide to the scientific community a standardized way to assess this type of algorithm.
40

Uma metodologia para caracterização de aplicações e de instâncias de máquinas virtuais no ambiente de computação em nuvem. / A Methodology for characterization of applications and virtual machines instances in cloud computing environment.

Rodamilans, Charles Boulhosa 27 June 2014 (has links)
Os provedores de Computação em Nuvem estão fornecendo diversas instâncias e configurações de Máquinas Virtuais. Entretanto, existe dificuldade quanto à seleção da instância mais adequada para uma determinada aplicação, levando em consideração, por exemplo, o menor tempo de execução. O presente trabalho tem como objetivo determinar os procedimentos para a seleção de uma instância de Máquina Virtual para uma determinada aplicação e também propor uma arquitetura que permita interligar os diferentes provedores de Nuvem. Foram implementadas funcionalidades da arquitetura e também foram aplicados os procedimentos propostos em uma aplicação científica e em instâncias de diferentes provedores de Nuvem. Os principais resultados obtidos foram (a) desenvolvimento da metodologia Caracterização, Seleção e Execução (CSE); (b) demonstração da importância da caracterização e do recurso preponderante da aplicação; (c) avaliação de desempenho do disco em diversas Nuvens; (c) caracterização e avaliação de desempenho da aplicação OpenModeller; e (d) arquitetura de interligação de nuvens públicas e privadas, e implementação de suas principais funcionalidades. Estes resultados mostram que o principal problema de seleção das instâncias pode ser solucionado a partir da caracterização das instâncias e das aplicações. / The Cloud Computing providers are providing several instances and configurations of Virtual Machines. However, there is a difficulty in selecting the instance more adequate for specific application. This study aims to determine the procedures for selecting a Virtual Machine instance for a particular application and also propose an architecture to link the different Cloud providers. Features of the architecture have been implemented and the proposed procedures were applied in scientific applications and in instances of different Cloud providers. The main results were (a) development of Characterization, Selection and Execution (CSE) of methodology; (b) demonstration of the importance application characterization and the preponderant resource; (c) performance characterization and evaluation of OpenModeller application; (d) interconnection architecture of public and private Clouds, and implementation of their main features. These results show that the main instance selection problem can be solved from the instances and applications characterization.

Page generated in 0.0969 seconds