• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5395
  • 422
  • 156
  • 128
  • 128
  • 125
  • 70
  • 58
  • 56
  • 56
  • 55
  • 31
  • 6
  • 3
  • 2
  • Tagged with
  • 5975
  • 2379
  • 1751
  • 977
  • 964
  • 911
  • 895
  • 881
  • 697
  • 692
  • 672
  • 553
  • 515
  • 459
  • 441
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Codificador G729a orientado à avaliação da qualidade perceptual do sinal de voz

Wisnevski, Flávio Luis January 2011 (has links)
Made available in DSpace on 2013-08-07T18:53:24Z (GMT). No. of bitstreams: 1 000434559-Texto+Completo-0.pdf: 4621717 bytes, checksum: c4885f23273153ab3ddd4a325610aa74 (MD5) Previous issue date: 2011 / This thesis presents a model that evaluates the perceptual quality of the enconding voice, using a parametric encoder defined by the ITU-T Recommendation G729a, technically known as Conjugate Structure Algebraic Code Excited Linear Prediction (CS-ACELP). Currently the voice coding is evaluated by subjective parameters, where there is a perceptual analysis to improve the parameters that change dynamically. The objective of this study is improvement in the performance of the coded signal source, considering the limitations of working with the codec scalar variables. An analysis of the speech signals to improve input to the reader, allowing for better understanding and a theoretical description of the encoder G729a, emphasizing the stages of encoding scalar parameters, object of this study. The PESQ algorithm has been inserted into the coder, which by these means performs a perceptually based analysis of the speech signal. In so doing, we have also analyzed thoroughly ITU-T Recommendation P. 862 describing an algorithm for objectively evaluating perceptual speech quality. To validate the proposed methodology, test were performed for comparison which speech signals from the Timit database for studying the improvement in coded speech quality after the perceptual improvement algorithm applied to the scalar parameters in coding In the experiment, was performed in modified CS-ACELP coder using a perceptual analysis considering the evaluation of the PESQ algorithm for decision to operate on the encoding, resulting in higher quality signals to users, ensuring the stability of 72. 41% and 50. 38% of the frames better evaluated by PESQ. There was change in the pitch gain, without changing the essence of the codec. / Esta dissertação apresenta um modelo de codificador da voz que avalia a qualidade perceptual, utilizando-se um codificador paramétrico definido pela Recomendação do ITU-T, o G729a, conhecido tecnicamente como Conjugate Structure Algebraic Code Excited Linear Prediction (CS-ACELP). Atualmente, a codificação de voz é avaliada por parâmetros subjetivos, em que não há uma análise para melhoria perceptual que altere os parâmetros dinamicamente. O objetivo deste trabalho é a melhoria no desempenho do sinal codificado na fonte, considerando as limitações de trabalhar com as variáveis escalares do codec. Foi realizada uma análise sobre os sinais de voz para dar subsídios ao leitor, possibilitando o entendimento teórico e uma descrição sobre o codificador G729a, enfatizando os estágios de codificação dos parâmetros escalares, objeto deste estudo. Programou-se no codificador G729a, o algoritmo PESQ, o qual realiza a análise perceptual do sinal de voz. Também foi avaliada recomendação P. 862 do ITU-T que descreve o algoritmo de avaliação da qualidade perceptual. Para validar a metodologia proposta, foram realizados experimentos em sinais de voz do banco de dados Timit, em que se estudou o comportamento do sinal de voz e a melhoria perceptual devido à alteração dos parâmetros escalares de codificação do sinal. No experimento realizado, foi realizada a modificação no codificador CS-ACELP com a utilização de uma análise perceptual ponderando a avaliação do algoritmo do PESQ para decisão de atuação sobre a codificação, o que resultou em sinais de maior qualidade para os usuários, garantindo a estabilidade de 72,41% e melhorando 50,38% dos quadros avaliados pelo PESQ. Houve alteração no ganho de pitch, sem a modificação da essência do codec.
172

Profiling and reducing micro-architecture bottlenecks at the hardware level / BLAP : um caracterizador de blocos básicos de arquitetura

Moreira, Francis Birck January 2014 (has links)
A maior parte dos mecanismos em processadores superescalares atuais usam granularidade de instrução para criar ou caracterizar especulações, tais como predição de desvios ou prefetchers. No entanto, muitas das características das instruções podem ser obtidas ao analisar uma granularidade mais grossa, o bloco básico de código, aumentando a quantidade de código coberta em um espaço similar de armazenamento. Adicionalmente, códigos podem ser analisados mais precisamente e prover uma variedade maior de informação ao observar diferentes tipos de instruções e suas relações. Devido a estas vantagens, a análise no nível de blocos pode fornecer mais oportunidades para mecanismos que necessitam desta informação. Por exemplo, é possível integrar informações de desvios mal previstos e acessos a memória para gerar informações mais precisas de quais acessos a memória oferecem melhor desempenho ao serem priorizados. Nesta tese propomos o Block-Level Architecture Profiler (BLAP) (Block Level Architecture Profiler), um mecanismo em hardware que caracteriza gargalos no nível microarquitetural, tal como loads delinquentes, desvios de difícil previsão e contenção nas unidades funcionais. O BLAP trabalha no nível de bloco básico, apenas detectando e fornecendo informações que podem ser usada para otimizar tais gargalos. Um mecanismo para a remoção de prefetches e uma política de controlador de memória DRAM foram criados para usar a informação criada pelo BLAP e demonstrar seu potencial. Juntos, estes mecanismos são capazes de melhorar o desempenho do sistema em até 17.39% (3.9% em média). Nosso método mostrou também ganhos médios de 13.14% quando avaliado com uma pressão na memória mais alta devido a prefetchers mais agressivos. / Most mechanisms in current superscalar processors use instruction granularity information for speculation, such as branch predictors or prefetchers. However, many of these characteristics can be obtained at the basic block level, increasing the amount of code that can be covered while requiring less space to store the data. Moreover, the code can be profiled more accurately and provide a higher variety of information by analyzing different instruction types inside a block. Because of these advantages, block-level analysis can offer more opportunities for mechanisms that use this information. For example, it is possible to integrate information about branch prediction and memory accesses to provide precise information for speculative mechanisms, increasing accuracy and performance. We propose a BLAP, an online mechanism that profiles bottlenecks at the microarchitectural level, such as delinquent memory loads, hard-to-predict branches and contention for functional units. BLAP works at the basic block level, providing information that can be used to reduce the impact of these bottlenecks. A prefetch dropping mechanism and a memory controller policy were developed to use the profiled information provided by BLAP. Together, these mechanisms are able to improve performance by up to 17.39% (3.90% on average). Our technique showed average gains of 13.14% when evaluated under high memory pressure due to highly aggressive prefetch.
173

Modelo de confiança para a troca de arquivos em uma nuvem privada / Trust model for the exchange of files in a private cloud

Canedo, Edna Dias 15 August 2012 (has links)
Tese (doutorado)—Universidade de Brasília, Departamento de Engenharia Elétrica, 2012. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2013-01-30T12:54:21Z No. of bitstreams: 1 2012_EdnaDiasCanedo.pdf: 3527692 bytes, checksum: dccac5ed56bcd753445633a84bb339eb (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-01-30T13:52:04Z (GMT) No. of bitstreams: 1 2012_EdnaDiasCanedo.pdf: 3527692 bytes, checksum: dccac5ed56bcd753445633a84bb339eb (MD5) / Made available in DSpace on 2013-01-30T13:52:04Z (GMT). No. of bitstreams: 1 2012_EdnaDiasCanedo.pdf: 3527692 bytes, checksum: dccac5ed56bcd753445633a84bb339eb (MD5) / Os recentes avanços na tecnologia de computação em nuvem demonstram um aumento nos problemas relacionados à segurança, privacidade e confiança em diferentes aspectos, os quais não haviam sido previstos na concepção dos ambientes de computação em nuvem. Entre estes, o problema da confiança entre os usuários e a garantia do acesso seguro aos recursos destes ambientes tem merecido uma atenção especial. Neste trabalho, é apresentada uma revisão dos conceitos da confiança e reputação, da computação em nuvem e são abordadas algumas questões em aberto relacionadas à confiança e segurança em ambientes de computação em nuvem. A representação da confiança e da reputação em sistemas computacionais tem sido amplamente discutida e aplicada em diversos cenários da tecnologia da informação, se tornando objeto de pesquisas científicas tanto do ponto de vista teórico quanto prático. Como resultado, diversos trabalhos estão sendo apresentados na tentativa de minimizar e solucionar os problemas decorrentes da segurança e confiabilidade nestes ambientes. Esta pesquisa propõe a criação de um modelo de confiança de alto nível para garantir a troca confiável de arquivos entre os usuários de uma nuvem privada, bem como o cálculo da confiança entre os respectivos usuários, de acordo com as métricas estabelecidas. Para validar o modelo proposto foi utilizado um ambiente de simulação com a ferramenta CloudSim. A sua utilização para executar as simulações dos cenários adotados permitiu: calcular a tabela de confiança dos nós (máquinas virtuais) e selecionar os considerados mais confiáveis; identificar que as métricas adotadas influenciam diretamente no cálculo da confiança em um nó; avaliar a adequação das métricas utilizadas, possibilitando identificar e selecionar as mais adequadas em relação ao histórico do comportamento dos nós pertencentes ao ambiente analisado; verificar que o modelo de confiança proposto permite efetivamente a escolha da máquina mais adequada para efetuar a troca de arquivos. ______________________________________________________________________________ ABSTRACT / Recent advances in cloud computing have shown an increase in problems related to security, privacy and trust in different aspects, which had not been anticipated in the design of cloud computing environments. Among these, the lack of trust between users and ensuring secure access to the resources in these environments has deserved special attention. In this work, it is presented a review of concepts of cloud computing, trust and reputation and some open issues related to trust and security in cloud computing environments are addressed. The representation of trust and reputation in computer systems has been widely discussed and applied in various Information Technology scenarios, becoming the subject of scientific research, both from the theoretical and practical point of view. As a result, several studies are being presented in an attempt to minimize and solve problems relating to security and reliability in these environments. This research proposes the creation of a high level trust model to ensure the reliable files exchange between the users of a private cloud as well as the measurement of their trust, according to the metrics established. To validate the proposed model, a simulation environment with the tool CloudSim was used. Its use to run the simulations of the adopted scenarios allowed us to calculate the nodes (virtual machines) trust table and select those considered more reliable; identify that the metrics adopted by us directly influenced the measurement of trust in a node; assess the adequacy of metrics used, allowing to identify and select the most appropriate in relation to the historical behavior of the nodes belonging to the analyzed environment; verify that the trust model proposed effectively allows the selection of the most suitable machine to perform the exchange of files.
174

Profiling and reducing micro-architecture bottlenecks at the hardware level / BLAP : um caracterizador de blocos básicos de arquitetura

Moreira, Francis Birck January 2014 (has links)
A maior parte dos mecanismos em processadores superescalares atuais usam granularidade de instrução para criar ou caracterizar especulações, tais como predição de desvios ou prefetchers. No entanto, muitas das características das instruções podem ser obtidas ao analisar uma granularidade mais grossa, o bloco básico de código, aumentando a quantidade de código coberta em um espaço similar de armazenamento. Adicionalmente, códigos podem ser analisados mais precisamente e prover uma variedade maior de informação ao observar diferentes tipos de instruções e suas relações. Devido a estas vantagens, a análise no nível de blocos pode fornecer mais oportunidades para mecanismos que necessitam desta informação. Por exemplo, é possível integrar informações de desvios mal previstos e acessos a memória para gerar informações mais precisas de quais acessos a memória oferecem melhor desempenho ao serem priorizados. Nesta tese propomos o Block-Level Architecture Profiler (BLAP) (Block Level Architecture Profiler), um mecanismo em hardware que caracteriza gargalos no nível microarquitetural, tal como loads delinquentes, desvios de difícil previsão e contenção nas unidades funcionais. O BLAP trabalha no nível de bloco básico, apenas detectando e fornecendo informações que podem ser usada para otimizar tais gargalos. Um mecanismo para a remoção de prefetches e uma política de controlador de memória DRAM foram criados para usar a informação criada pelo BLAP e demonstrar seu potencial. Juntos, estes mecanismos são capazes de melhorar o desempenho do sistema em até 17.39% (3.9% em média). Nosso método mostrou também ganhos médios de 13.14% quando avaliado com uma pressão na memória mais alta devido a prefetchers mais agressivos. / Most mechanisms in current superscalar processors use instruction granularity information for speculation, such as branch predictors or prefetchers. However, many of these characteristics can be obtained at the basic block level, increasing the amount of code that can be covered while requiring less space to store the data. Moreover, the code can be profiled more accurately and provide a higher variety of information by analyzing different instruction types inside a block. Because of these advantages, block-level analysis can offer more opportunities for mechanisms that use this information. For example, it is possible to integrate information about branch prediction and memory accesses to provide precise information for speculative mechanisms, increasing accuracy and performance. We propose a BLAP, an online mechanism that profiles bottlenecks at the microarchitectural level, such as delinquent memory loads, hard-to-predict branches and contention for functional units. BLAP works at the basic block level, providing information that can be used to reduce the impact of these bottlenecks. A prefetch dropping mechanism and a memory controller policy were developed to use the profiled information provided by BLAP. Together, these mechanisms are able to improve performance by up to 17.39% (3.90% on average). Our technique showed average gains of 13.14% when evaluated under high memory pressure due to highly aggressive prefetch.
175

Aspectos de desempenho da computação paralela em Clusters e Grids para processamento de imagens

de Oliveira Mattos, Giorgia 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T17:35:12Z (GMT). No. of bitstreams: 2 arquivo5391_1.pdf: 5090704 bytes, checksum: 8579bb353f3397d7c9f8d6e90e505f32 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / O processo de digitalização de documentos de maneira automática geralmente resulta em imagens com características indesejáveis como orientação errada, inclinação incorreta das linhas do texto e até mesmo a presença de ruídos causados pelo estado de conservação, integridade física e presença ou ausência de poeira no documento e partes do scanner. O simples processamento de cada imagem é efetuado em poucos segundos, a sua transcrição ou busca de palavras-chave para indexação necessita vários segundos de processamento. O lote produzido por um único scanner de linha de produção pode levar dias para ser filtrado, dependendo da capacidade de processamento do computador utilizado. Faz-se necessário distribuir tal tarefa para que o processamento das imagens acompanhe a taxa de digitalização. Esta tese analisa a viabilidade da computação paralela em cluster e grades para o processamento de grandes quantidades de imagens de documentos digitalizados. Diferentes cenários de configuração de computadores e de distribuição de tarefas foram analisados, sob o ponto de vista do processamento das tarefas e do tráfego de rede gerado durante o processamento
176

Visões progressivas de computações distribuidas

Garcia, Islene Calciolari, 1971- 18 December 2001 (has links)
Orientador : Luiz Eduardo Buzato / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-29T03:55:29Z (GMT). No. of bitstreams: 1 Garcia_IsleneCalciolari_D.pdf: 7273210 bytes, checksum: 2bc04d2a705337b28f6c598e011ecde7 (MD5) Previous issue date: 2001 / Resumo: Um checkpoint é um estado selecionado por um processo durante a sua execução. Um checkpoint global é composto por um checkpoint de cada processo e é consistente se representa urna foto­grafia da computação que poderia ter sido capturada por um observador externo. Soluções para vários problemas em sistemas distribuídos necessitam de uma seqüência de checkpoints globais consistentes que descreva o progresso de urna computação distribuída. Corno primeira contri­buição desta tese, apresentamos um conjunto de algoritmos para a construção destas seqüências, denominadas visões progressivas. Outras contribuições provaram que certas suposições feitas na literatura eram falsas utilizando o argumento de que algumas propriedades precisam ser válidas ao longo de todo o progresso da computação. Durante algumas computações distribuídas, todas as dependências de retrocesso entre check­points podem ser rastreadas em tempo de execução. Esta propriedade é garantida através da indução de checkpoints imediatamente antes da formação de um padrão de mensagens que poderia dar origem a urna dependência de retrocesso não rastreável. Estudos teóricos e de simu­lação indicam que, na maioria das vezes, quanto mais restrito o padrão de mensagens, menor o número de checkpoints induzidos. Acreditava-se que a caracterização minimal para a obtenção desta propriedade estava estabelecida e que um protocolo baseado nesta caracterização precisa­ria da manutenção e propagação de informações de controle com complexidade O(n2), onde n é o número de processos na computação. A complexidade quadrática tornava o protocolo base­ado na caracterização mimimal menos interessante que protocolos baseados em caracterizações maiores, mas com complexidade linear.A segunda contribuição desta tese é uma prova de que a caracterização considerada minimal podia ser eduzida, embora a complexidade requerida por um protocolo baseado nesta nova caracterização minimal continuasse indicando ser quadrática. A terceira contribuição desta tese é a proposta de um pequeno relaxamento na caracterização minimal que propicia a implementação de um protocolo com complexidade linear e desempenho semelhante à solução quadrática. Como última contribuição, através de um estudo detalhado das variações da informação de controle durante o progresso de urna computação, propomos um protocolo que implementa exatamente a caracterização minimal, mas com complexidade linear / Abstract: A checkpoint is a state selected by a process during its execution. A global checkpoint is composed of one checkpoint from each process and it is consistent if it represents a snapshot of the computation that could have been taken by an external observer. The solution to many problems in distributed systems requires a sequence of consistent global checkpoints that describes the progress of a distributed computation. As the first contribution of this thesis, we present a set of algorithms to the construction of these sequences, called progressive views. Additionally, the analysis of properties during the progress of a distributed computation allowed us to verify that some assumptions made in the literature were false. Some checkpoint patterns present only on-line trackable rollback-dependencies among check­points. This property is enforced by taking a checkpoint immediately before the formation of a message pattern that can produce a non-trackable rollback-dependency. Theoretical and simula­tion studies have shown that, most often, the more restricted the pattern, the more efficient the protocol. The minimal characterization was supposed to be known and its implementation was supposed to require the processes of the computation to maintain and propagate O(n2) control information, where n is the number of processes in the computation. The quadratic complexity makes the protocol based on the minimal characterization less interesting than protocols based on wider characterizations, but with a linear complexity. The second contribution of this thesis is a proof that the characterization that was supposed to be minimal could be reduced. However, the complexity required by a protocol based on the new minimal characterization seemed to be also quadratic. The third contribution of this thesis is a protocol based on a slightly weaker condition than the minimal characterization, but with linear complexity and performance similar to the quadratic solution. As the last contribution, through a detailed analysis of the control information computed and transmitted during the progress of distributed computations, we have proposed a protocol that implements exactly the minimal characterization, but with a linear complexity / Doutorado / Doutor em Ciência da Computação
177

Estudo comparativo de algoritmos para checkpointing

Vieira, Gustavo Maciel Dias 18 December 2001 (has links)
Orientador : Luiz Eduardo Buzato / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-01T02:33:00Z (GMT). No. of bitstreams: 1 Vieira_GustavoMacielDias_M.pdf: 3096254 bytes, checksum: 30b7155e50de3e9afd753dd40520b771 (MD5) Previous issue date: 2001 / Resumo: Esta dissertação fornece um estudo comparativo abrangente de algoritmos quase-síncronos para checkpointing. Para tanto, utilizamos a simulação de sistemas distribuídos que nos oferece liberdade para construirmos modelos de sistemas com grande facilidade. O estudo comparativo avaliou pela primeira vez de forma uniforme o impacto sobre o desempenho dos algoritmos de fatores como a escala do sistema, a freqüência de check points básicos e a diferença na velocidade dos processos da aplicação. Com base nestes dados obtivemos um profundo conhecimento sobre o comportamento destes algoritmos e produzimos um valioso referencial para projetistas de sistemas em busca de algoritmos para check pointing para as suas aplicações distribuídas / Abstract: This dissertation provides a comprehensive comparative study ofthe performance of quase synchronous check pointing algorithms. To do so we used the simulation of distributed systems, which provides freedom to build system models easily. The comparative study assessed for the first time in an uniform environment the impact of the algorithms' performance with respect to factors such as the system's scale, the basic checkpoint rate and the relative processes' speed. By analyzing these data we acquired a deep understanding of the behavior of these algorithms and were able to produce a valuable reference to system architects looking for check pointing algorithms for their distributed applications / Mestrado / Mestre em Ciência da Computação
178

DisCusS : desenvolvendo um serviço de concenso generico, simples e modular

Camargos, Lásaro Jonas 29 August 2003 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T18:00:42Z (GMT). No. of bitstreams: 1 Camargos_LasaroJonas_M.pdf: 3140522 bytes, checksum: 05a0621c657843119225cda44fec1186 (MD5) Previous issue date: 2003 / Resumo: Esta dissertação trata do processo de engenharia de um serviço de detecção de falhas compatível com FT-CORBA, a especm.cação para tolerância a falhas em CORBA, e de um serviço de consenso distribuído. Os serviços são independentes e fornecem diferentes propriedades para a aplicação cliente, dependendo dos módulos, com implementaçães de algoritmos diferentes, selecionados para uma instanciação destes serviços. A arquitetura dos serviços é tal que a aplicação cliente não toma conhecimento dos algoritmos de detecção e consenso sendo executados, acessando-os por uma interface genérica. Com o intuito de facilitar a escolha dos módulos dos serviços, apresentamos um pequeno estudo comparativo da influência de detectores de falhas adaptativos, aqueles que se adaptam para prover melhor qualidade de serviço na detecção, e não adaptativos sobre o desempenho dos algoritmos de consenso distribuído / Abstract: This thesis is on the process of development of a distributed consensus service and its fault detection service, being the last one, compliant with FT -CORBA, the Fault Tolerant CORBA specification. These services are independent and, depending on the selected modules, offer different properties to client applications. The presented architecture is defined in such a way that client applications do not know which algorithms are running, both for detection and for consensus, just accessing them through a generic interface. To make easier the task of selecting modules in the services, we also present a comparative study of the influence of adaptive and non-adaptive failure detectors over the execution of consensus algorithms / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
179

Coleta de lixo para protocolos de checkpointing

Schmidt, Rodrigo Malta 03 August 2018 (has links)
Orientadores : Luiz Eduardo Buzato, Islene Calciolari Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T19:18:25Z (GMT). No. of bitstreams: 1 Schmidt_RodrigoMalta_M.pdf: 745421 bytes, checksum: c32cef5e0a61fe3580cc8a211902f9fd (MD5) Previous issue date: 2003 / Mestrado
180

Um modelo para portais moveis baseado em middleware reflexivo e agentes moveis

Gialdi, Marcos Vinicius 03 August 2018 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T23:48:58Z (GMT). No. of bitstreams: 1 Gialdi_MarcosVinicius_M.pdf: 1923285 bytes, checksum: f6fb283d7e5132fe50ecf03493e3c971 (MD5) Previous issue date: 2004 / Resumo: A Computação Móvel possibilita o acesso a informação de qualquer lugar e a qualquer momento. Contudo, as preferências do usuário e as limitações geradas no ambiente móvel trazem a necessidade de personalizar o acesso aos serviços. Este trabalho descreve o ICoMP (I-centric Communication Mobile Portal), um modelo para Portal Móvel que oferece serviços aos usuários baseado no seu perfil (preferências, recursos disponíveis, localização e contexto). O ICoMP baseia-se na abordagem I-centric, onde os sistemas adaptam-se dinamicamente às necessidades do usuário e às mudanças no ambiente móvel. A infra-estrutura do ICoMP integra um middleware reflexivo (ReMMoC) e uma plataforma de Agentes Móveis (Grasshopper ) para dar suporte a dois tipos de acesso: a serviços oferecidos por agentes móveis e serviços implementados por tipos de middleware heterogêneos. Além disso, uma avaliação do modelo ICoMP é feita em termos de espaço de armazenamento e no suporte a aplicações móveis / Abstract: Mobile Computing enables information access anytime, anywhere. However, the needs of users and the constraints generated by the mobile environment raise the necessity to personalize access to services. This work describes ICoMP (I-centric Communication Mobile Portal), which is a mobile portal model that offers services based upon user profiles (these contain information including: preferences, available resources, location and environment context). Notably, ICoMP follows an I-Centric approach, whereby the system dynamically adapts to manage both user requirements and changes in the mobile environment. ICoMP's infrastructure integrates a reflective middleware (ReMMoC) and a mobile agent platform (Grasshopper) to support two types of access to information and application services, i.e. it interoperates with both services offered by mobile agents and also services implemented upon heterogeneous middleware. Moreover, we evaluate our implementation of the ICoMP portal in terms of memory footprint cost and support for mobile applications / Mestrado

Page generated in 0.092 seconds