Spelling suggestions: "subject:"cistema dde recuperação dde informação"" "subject:"cistema dde recuperação dee informação""
141 |
Gestão da informação em ambiente web: aplicação da inteligência competitiva para o setor industrial de confecções da região de Londrina/PRSantos, Juliana Cardoso dos [UNESP] 27 July 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:26:43Z (GMT). No. of bitstreams: 0
Previous issue date: 2009-07-27Bitstream added on 2014-06-13T19:54:58Z : No. of bitstreams: 1
santos_jc_me_mar.pdf: 665299 bytes, checksum: 89785ed9794977d1ae17d9e6c6cf9d9e (MD5) / Senai / A competitividade, a globalização e a necessidade da obtenção de informações direcionadas ao negócio e com valor agregado são fatores que influenciam, cada vez mais, as organizações que atuam no mercado nacional e internacional buscarem um diferencial competitivo. Atualmente, existe uma gama enorme de informações sobre processos e produtos industriais, cuja importância é fundamental para o potencial competitivo das organizações, visto que a inovação advém inicialmente desse tipo de ação informacional. As organizações podem ser vistas como sistemas que geram, processam e aplicam informações, que são transformadas em ação propriamente dita. Nesse sentido, o processo de inteligência competitiva pode auxiliar as organizações a coletar dados de fontes internas e externas, formais e informais e processá-las transformando-as em um ativo potencialmente competitivo. Assim, obter e gerenciar informações estruturadas e com valor agregado, bem como usar as tecnologias de informação e comunicação de forma eficiente, auxilia na transformação de dados e informações em diferencial competitivo para o desenvolvimento do setor industrial. O processo de inteligência competitiva é um diferencial para qualquer modelo de gestão organizacional, visto que possui como objetivo principal antever oportunidades e situações críticas na busca de resultados eficientes e eficazes. O presente projeto de pesquisa teve como propósito estudar os fenômenos que compõem a gestão da informação em ambiente Web, mais especificamente a aplicação da inteligência competitiva para o setor industrial de confecções da região de Londrina/PR. O setor é extremamente competitivo, visto que é uma área que possui um ciclo de informações acelerado e dinâmico, bem como precisa ter como base, a antecipação informacional para oferecer produtos diferenciados. Este projeto estudou... / To competitiveness, the globalization and need of the obtaining information directed to the business and with value added are factors that influence the organizations that act in the international and national market will seek a competitive differential. At present, actually exists the range of information about industrial process and products, whose importance is fundamental for the competitive potential of organizations, seen that the innovation happens initially of that kind informational action. The organizations can be a sight as systems that generate, prosecute and apply information transforming them in action properly dictates. In that sense, the competitive intelligence process is able to help the organizations it collect informal and formal data, external and internal sources and prosecute and transforming them in a potentially competitive assets, therefore, obtain and manage information structured and with value added, as well like use information and communication technologies of efficient form, aiming at transform data and information in competitive differential for development of industrial sector. The process of competitive intelligence is a differential for any model of organizational management that possessed like main objective foresee opportunities and critical situations for obtain efficient and efficient results. The present project of research has like purpose study the phenomena that compose the information management in Web environment, more specifically the application of competitive intelligence for footwear industrial sector of Londrina/PR region. The sector of footwear of Londrina region, situated in the north of Paraná is extremely competitive, seen that is an area that possessed a cycle of information accelerated and highly dynamic, as well like is going to have like base to the anticipation informational for offer products differentiated... (Complete abstract click lectronic access below)
|
142 |
Reengenharia de interfaces utilizando Wrapping.Affonso, Frank José 05 September 2003 (has links)
Made available in DSpace on 2016-06-02T19:05:18Z (GMT). No. of bitstreams: 1
DissFJA.pdf: 3257954 bytes, checksum: 6cf58fbd124ba9dd6b97f1f8ea5b6b2a (MD5)
Previous issue date: 2003-09-05 / With the technological evolution and the increasing utilization of the Internet, companies and governmental institutions have been looking for modern solution to replace and improve their legacy systems. These kind of solutions require high investments, being able to use the reengineering process in these cases. A maner to modify these systems is through reengineering of their interfaces, by wrapping of their logic. This technique preserves the native environment of system and its functionalities, reducing in time and cost the reengineering process. To support the migration of legacies systems in a general way, there is an Interface Reengineering Process (IRP), whose accomplish the wrapping of its functionalities and connect them with a new user Web interface. This Web interface connects itself with the identified components of the legacy system following the special resources that they offer. The IRP is summarized by the study of the interface and logic of the system. In this way, it possible to accomplish the system organization for the wrapping to be done, which is composed by the legacies functionalities covered by a new software layer. This new layer makes possible the communication with the new user interface, which has developed according to the usability criteria. The systems used as case studies were developed using Delphi environment, with or without object orientation characteristics. In this work only systems developed without object orientation characteristics are presented in details. With the use of the new process proposed here, the interface can be developed in any paradigm, while the legacy code remains as the original, simplyfing the system maintenance. / Com a evolução tecnológica e com a crescente utilização da Internet, empresas e instituições governamentais desejam migrar seus sistemas desenvolvidos com recursos computacionais antigos (legados) para mais modernos. No entanto, essa é uma tarefa que requer investimentos elevados, podendo o processo de reengenharia ser utilizado nesses casos. Uma forma de modificar esses sistemas é por meio da reengenharia da sua interface, através do empacotamento de sua lógica (wrapping). Essa técnica preserva o ambiente nativo do sistema e suas funcionalidades, reduzindo em tempo e custo o processo de reengenharia. Para apoiar a migração de sistemas legados propõe-se um Processo de Reengenharia de Interface (PRI) que apóia a migração de sistemas legados de maneira geral, realizando o empacotamento de suas funcionalidades e acoplando uma nova interface do usuário para Web. A nova interface do usuário será disponibilizada para Web, que se comunica com os componentes identificados no sistema legado de acordo com os recursos especiais que eles oferecem. O PRI resume-se no estudo da interface e da lógica do sistema. Com isso, pode-se realizar a organização do sistema para que seja realizado seu empacotamento, que corresponde ao revestimento das funcionalidades legadas por uma camada de software, viabilizando a comunicação com a nova interface do usuário, desenvolvida segundo critérios de usabilidade. Os sistemas utilizados como estudo de casos são desenvolvidos no ambiente Delphi com ou sem características da orientação a objetos. Neste trabalho somente os desenvolvidos sem características da orientação a objetos são apresentados em detalhes. Com a aplicação desse processo, somente a interface passa a ser desenvolvida em um outro paradigma, mas o código legado permanece como o original, facilitando a tarefa dos mantenedores do sistema.
|
143 |
Ciencidade : o ciberartigo como gênero acadêmico emergente na webFerreira, Lucas Pazoline da Silva 24 January 2014 (has links)
The transformations of equipment and computer systems, and therefore their introduction in various spheres of human activity have influenced the way society creates and communicates. Originating from these changes, the Internet and the World Wide Web have enabled a cultural distinct movement, by which it is also observed a textual production directed to the dissemination and consolidation of scientific knowledge. In this scientific context created by digital tools, some questions arise, namely: One can consider the existence of an emerging academic-scientific genre (the cyberarticle) in the context of the Web? Is there a production context adjusted for the production and dissemination of cyberarticles? What are these digital technological tools to produce cyberarticles? In view of this, this thesis aims to characterize the cyberarticle as an emerging academic genre on the Web. This research was based on Bakhtin (1992) and his macro analytic studies on the genres, and Marcuschi (1999; 2008; 2010), Koch (2010) and Xavier (2001; 2009; 2010), especially when they refer to the relationship between genres and digital tools. These theories have articulated to the contributions of Lévy (1993; 1996) on the Cyberspace, the Cyberculture and the virtuality; to the contributions of Tapscott (2010) and Prensky (2001a; 2001b) on the Digital Generation and the digital natives and immigrants, respectively; and finally, to the contributions of Berners-Lee (1996; 2001; 2006) and O´Reilly (2005) on the Web. For a better understanding of the communication process through scientific journals, the studies of Biojone (2003) have become fundamental for research presented in this thesis. The methodological approach is constituted by two procedures of data observation and data collection: first, there was a cataloging of scientific journals and articles oriented to online publication, giving greater focus to the publications of the Universidade Federal de Sergipe and to proposals for scientific publication different from traditional forms; in the second procedure, a experience for production of cyberarticles in the Ciencidade (www.ciencidade.com.br) was accomplished with the participation of the students and professors of the UFS. By analyzing the virtual scientific journals of Universidade Federal de Sergipe it was verified that the text is limited to the use of static images and normalized links (ABNT, journal) and/or links created automatically by virtual word processors, which makes it a traditional scanned article. Moreover, in respect to proposals for different forms of publishing, along with the materials collected from the experience in the Ciencidade, it was clear that the production of cyberarticles is possible since there is a context that stimulates such production of cyberarticles. Thus, the cyberarticle can be considered an emerging academic and scientific genre in the context of the Web, because it is different from the genre of traditional scientific article due to the fact that it is characterized by integration of different languages and tools made possible by digital technology. / As transformações de equipamentos e sistemas computacionais e, por conseguinte, sua introdução em variadas esferas da atividade humana têm influenciado a maneira como a sociedade cria e se comunica. Oriunda dessas mudanças, a internet e a World Wide Web permitiram um movimento cultural distinto, por meio do qual também se observa uma produção textual direcionada à divulgação e consolidação do conhecimento científico. Nesse contexto científico criado pelas ferramentas digitais, surgem algumas questões, a saber: pode-se considerar a existência de um gênero acadêmico-científico emergente (o ciberartigo) no contexto da Web? Existe um contexto de produção ajustado para a produção e divulgação de ciberartigos? Quais seriam essas ferramentas tecnológicas digitais para a produção de ciberartigos? Diante disso, nesta dissertação, objetiva-se caracterizar o ciberartigo como um gênero textual acadêmico emergente na Web. Esta pesquisa se fundamentou em de Bakhtin (1992) e seus estudos macroanalíticos sobre os gêneros, e em Marcuschi (1999; 2008; 2010), Koch (2010) e Xavier (2001; 2009; 2010), especialmente quando que se referem à relação entre os gêneros textuais e as ferramentas digitais. Articularam-se tais teorias às contribuições de Lévy (1993; 1996) sobre o Ciberespaço, a Cibercultura e a virtualidade; às de Tapscott (2010) e Prensky (2001a; 2001b) sobre a Geração Digital e os nativos e imigrantes digitais, respectivamente; e, por fim, às de Berners-Lee (1996; 2001; 2006) e O´Reilly (2005) sobre a Web. Para melhor entender o processo de comunicação científica através de periódicos científicos, os trabalhos de Biojone (2003) tornaram-se fundamentais para a pesquisa apresentada nesta dissertação. O percurso metodológico se constituiu por dois procedimentos de observação e coleta de dados: no primeiro, houve uma catalogação de periódicos e artigos científicos orientados à divulgação on-line, a qual foi direcionada para as publicações da Universidade Federal de Sergipe e para propostas de publicação científica diferentes das formas tradicionais; no segundo procedimento, com a participação de alunos e professores da UFS, foi realizada uma experiência de produção de ciberartigos no Ciencidade (www.ciencidade.com.br). Ao analisar os periódicos científicos virtuais da Universidade Federal de Sergipe, ficou comprovado que o texto se limita ao uso de imagens estáticas e hiperligações normatizadas (ABNT, periódico) e/ou criadas automaticamente por processadores de textos virtuais, o que faz dele um artigo tradicional digitalizado. Por outro lado, no que se refere às propostas de publicação diferentes das formas tradicionais, juntamente com os materiais coletados a partir da experiência no Ciencidade, ficou nítido que é possível uma produção ciberartigos desde que exista um contexto de produção que estimule tal prática. Sendo assim, o ciberartigo pode ser considerado um gênero acadêmico-científico emergente na Web, pois se diferencia do gênero textual artigo científico tradicional, na medida em que se caracteriza pela integração de diferentes linguagens e ferramentas, possibilitadas pelas tecnologias digitais.
|
144 |
Proposta de um vocabulário semântico para descobrir serviços na internet das coisasLima, Mayka de Souza 31 August 2016 (has links)
The Internet of Things is a network infrastructure that is based on communication protocols,
domains and applications connecting physical objects, such as sensors or remote devices
through wireless communications. In order for smart objects perform their functions when
connected to the Internet using web resources, it is necessary that the communication
interfaces can treat the search for a specific service requested by the user accurately. The
search for this service gives with a clear and objective semantics used in the vocabulary for
the request process. In some research cited in the work the use of semantic vocabularies in
web services, has some problems that persist in the clear detection of these services. These
papers that perform search services were analyzed and correlated their positive and negative
aspects about the semantics used in the vocabulary and its application in the IoT. In this
manner, to achieve a process of discovery services, this paper presents a semantic
vocabulary that performs discovery services on the Internet of things. The vocabulary built
was implemented in an application that performs the communication of an application of
best price, which has a market server and a fridge that seek a particular service. After
implementation the vocabulary search process was simulated in Cooja Simulator Contiki
operating system and used the language JSON (JavaScript Object Notation) based on the
discovery code, simple language and widely used for web applications. After the simulation,
we analyzed the communication services exchanged between the Best Price server and
Market applications and fridge, getting the memories of sensor nodes failed to perform the
sending of the semantic vocabulary response services because of a size limitation of ROM
(Read Only memory) of the simulated sensor nodes. / A Internet das coisas é uma revolução tecnológica que conecta aparelhos eletrônicos como
eletrodomésticos ou meios de transporte à Internet, baseando-se em protocolos de
comunicação, domínios e aplicações conectando objetos físicos, como sensores ou
dispositivos remotos através de comunicações sem fio. Para que objetos inteligentes realizem
suas funções quando conectados à Internet utilizando os recursos da web, é necessário que as
interfaces de comunicações possam tratar a busca de um determinado serviço solicitado pelo
usuário com precisão. A busca deste serviço dá-se com uma semântica clara e objetiva
utilizada no vocabulário para o processo de solicitação. Em algumas pesquisas citadas no
trabalho a utilização dos vocabulários semânticos em serviços da web, apresenta alguns
problemas que persistem na detecção clara destes serviços. Estes trabalhos que realizam
busca de serviços foram analisados e correlacionados seus pontos positivos e negativos sobre
a semântica utilizada no vocabulário e sua aplicação na IoT. Desta forma, para obter um
processo de descobrimento de serviços, este trabalho apresenta um vocabulário semântico
que realiza a descoberta de serviços na Internet das coisas. O vocabulário construído foi
implementado em uma aplicação que realiza a comunicação de uma aplicação de Melhor
Preço, onde tem um servidor de mercado e uma geladeira buscando um serviço na Internet.
Após a implementação foi simulado o processo de busca do vocabulário no Cooja Simulator
do sistema operacional Contiki e utilizado a linguagem JSON (JavaScript Object Notation)
como base do código de descobrimento, uma linguagem simples e muito utilizada para
aplicações web. Realizada a simulação analisou-se a comunicação dos serviços trocados
entre o servidor Melhor Preço e as aplicações Mercado e Geladeira, obtendo que as
memórias dos nós sensores não conseguiram realizar o envio da resposta do vocabulário
semântico com os serviços devido uma limitação do tamanho da memória ROM (Read Only
Memory) do nó sensor simulado.
|
145 |
Estudo comparativo de descritores para recuperação de imagens por conteudo na web / Comparative study of descriptors for content-based image retrieval on the webPenatti, Otávio Augusto Bizetto, 1984- 13 August 2018 (has links)
Orientador: Ricardo da Silva Torres / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-13T11:00:01Z (GMT). No. of bitstreams: 1
Penatti_OtavioAugustoBizetto_M.pdf: 2250748 bytes, checksum: 57d5b2f9120a8eae69ee9881d363e9ce (MD5)
Previous issue date: 2009 / Resumo: A crescente quantidade de imagens geradas e disponibilizadas atualmente tem eito aumentar a necessidade de criação de sistemas de busca para este tipo de informação. Um método promissor para a realização da busca de imagens e a busca por conteúdo. Este tipo de abordagem considera o conteúdo visual das imagens, como cor, textura e forma de objetos, para indexação e recuperação. A busca de imagens por conteúdo tem como componente principal o descritor de imagens. O descritor de imagens é responsável por extrair propriedades visuais das imagens e armazená-las em vetores de características. Dados dois vetores de características, o descritor compara-os e retorna um valor de distancia. Este valor quantifica a diferença entre as imagens representadas pelos vetores. Em um sistema de busca de imagens por conteúdo, a distancia calculada pelo descritor de imagens é usada para ordenar as imagens da base em relação a uma determinada imagem de consulta. Esta dissertação realiza um estudo comparativo de descritores de imagens considerando a Web como cenário de uso. Este cenário apresenta uma quantidade muito grande de imagens e de conteúdo bastante heterogêneo. O estudo comparativo realizado nesta dissertação é feito em duas abordagens. A primeira delas considera a complexidade assinto tica dos algoritmos de extração de vetores de características e das funções de distancia dos descritores, os tamanhos dos vetores de características gerados pelos descritores e o ambiente no qual cada descritor foi validado originalmente. A segunda abordagem compara os descritores em experimentos práticos em quatro bases de imagens diferentes. Os descritores são avaliados segundo tempo de extração, tempo para cálculos de distancia, requisitos de armazenamento e eficácia. São comparados descritores de cor, textura e forma. Os experimentos são realizados com cada tipo de descritor independentemente e, baseado nestes resultados, um conjunto de descritores é avaliado em uma base com mais de 230 mil imagens heterogêneas, que reflete o conteúdo encontrado na Web. A avaliação de eficácia dos descritores na base de imagens heterogêneas é realizada por meio de experimentos com usuários reais. Esta dissertação também apresenta uma ferramenta para a realização automatizada de testes comparativos entre descritores de imagens. / Abstract: The growth in size of image collections and the worldwide availability of these collections has increased the demand for image retrieval systems. A promising approach to address this demand is to retrieve images based on image content (Content-Based Image Retrieval). This approach considers the image visual properties, like color, texture and shape of objects, for indexing and retrieval. The main component of a content-based image retrieval system is the image descriptor. The image descriptor is responsible for encoding image properties into feature vectors. Given two feature vectors, the descriptor compares them and computes a distance value. This value quantifies the difference between the images represented by their vectors. In a content-based image retrieval system, these distance values are used to rank database images with respect to their distance to a given query image. This dissertation presents a comparative study of image descriptors considering the Web as the environment of use. This environment presents a huge amount of images with heterogeneous content. The comparative study was conducted by taking into account two approaches. The first approach considers the asymptotic complexity of feature vectors extraction algorithms and distance functions, the size of the feature vectors generated by the descriptors and the environment where each descriptor was validated. The second approach compares the descriptors in practical experiments using four different image databases. The evaluation considers the time required for features extraction, the time for computing distance values, the storage requirements and the effectiveness of each descriptor. Color, texture, and shape descriptors were compared. The experiments were performed with each kind of descriptor independently and, based on these results, a set of descriptors was evaluated in an image database containing more than 230 thousand heterogeneous images, reflecting the content existent in the Web. The evaluation of descriptors effectiveness in the heterogeneous database was made by experiments using real users. This dissertation also presents a tool for executing experiments aiming to evaluate image descriptors. / Mestrado / Sistemas de Informação / Mestre em Ciência da Computação
|
146 |
Método automático para descoberta de funções de ordenação utilizando programação genética paralela em GPU / Automatic raking function discovery method using parallel genetic programming on GPUCoimbra, Andre Rodrigues 28 March 2014 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2015-05-15T13:33:06Z
No. of bitstreams: 2
Dissertação - André Rodrigues Coimbra - 2014.pdf: 5214859 bytes, checksum: d951502129d7be5d60b6a785516c3ad1 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-05-15T13:37:45Z (GMT) No. of bitstreams: 2
Dissertação - André Rodrigues Coimbra - 2014.pdf: 5214859 bytes, checksum: d951502129d7be5d60b6a785516c3ad1 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-05-15T13:37:45Z (GMT). No. of bitstreams: 2
Dissertação - André Rodrigues Coimbra - 2014.pdf: 5214859 bytes, checksum: d951502129d7be5d60b6a785516c3ad1 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Previous issue date: 2014-03-28 / Ranking functions have a vital role in the performance of information retrieval systems
ensuring that documents more related to the user’s search need – represented as a query
– are shown in the top results, preventing the user from having to examine a range of
documents that are not really relevant.
Therefore, this work uses Genetic Programming (GP), an Evolutionary Computation
technique, to find ranking functions automaticaly and systematicaly. Moreover, in this
project the technique of GP was developed following a strategy that exploits parallelism
through graphics processing units.
Other known methods in the context of information retrieval as classification committees
and the Lazy strategy were combined with the proposed approach – called Finch. These
combinations were only feasible due to the GP nature and the use of parallelism.
The experimental results with the Finch, regarding the ranking functions quality, surpassed
the results of several strategies known in the literature. Considering the time performance,
significant gains were also achieved. The solution developed exploiting the
parallelism spends around twenty times less time than the solution using only the central
processing unit. / Funções de ordenação têm um papel vital no desempenho de sistemas de recuperação de
informação garantindo que os documentos mais relacionados com o desejo do usuário –
representado através de uma consulta – sejam trazidos no topo dos resultados, evitando
que o usuário tenha que analisar uma série de documentos que não sejam realmente
relevantes.
Assim, utiliza-se a Programação Genética (PG), uma técnica da Computação Evolucionária,
para descobrir de forma automática e sistemática funções de ordenação. Além disso,
neste trabalho a técnica de PG foi desenvolvida seguindo uma estratégia que explora o
paralelismo através de unidades gráficas de processamento.
Foram agregados ainda na abordagem proposta – denominada Finch – outros métodos
conhecidos no contexto de recuperação de informação como os comitês de classificação e
a estratégia Lazy. Sendo que essa complementação só foi viável devido a natureza da PG
e em virtude da utilização do paralelismo.
Os resultados experimentais encontrados com a Finch, em relação à qualidade das funções
de ordenação descobertas, superaram os resultados de diversas estratégias conhecidas
na literatura. Considerando o desempenho da abordagem em função do tempo, também
foram alcançados ganhos significativos. A solução desenvolvida explorando o paralelismo
gasta, em média, vinte vezes menos tempo que a solução utilizando somente a unidade
central de processamento.
|
147 |
Modeling, characterization, and optimization of web server power in data centers = Modelagem, caracterização e otimização de potência em centro de dados / Modelagem, caracterização e otimização de potência em centro de dadosPiga, Leonardo de Paula Rosa, 1985- 11 August 2013 (has links)
Orientadores: Sandro Rigo, Reinaldo Alvarenga Bergamaschi / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-24T00:17:07Z (GMT). No. of bitstreams: 1
Piga_LeonardodePaulaRosa_D.pdf: 5566406 bytes, checksum: 5fcce79bb9fc83646106c7580e0d77fc (MD5)
Previous issue date: 2013 / Resumo: Para acompanhar uma demanda crescente pelos recursos computacionais, empresas de TI precisaram construir instalações que comportam centenas de milhares de computadores chamadas centro de dados. Este ambiente é altamente dependente de energia elétrica, um recurso que é cada vez mais caro e escasso. Neste contexto, esta tese apresenta uma abordagem para otimizar potência e desempenho em centro de dados Web. Para isto, apresentamos uma infraestrutura para medir a potência dissipada por computadores de prateleiras, desenvolvemos modelos empíricos que estimam a potência de servidores Web e, por fim, implementamos uma de nossas heurísticas de otimização de potência global em um aglomerado de nós de processamento chamado AMD SeaMicro SM15k. A infraestrutura de medição de potência é composta por: uma placa personalizada, que é capaz de medir potência e é instalada em computadores de prateleira; um conversor de dados analógico/digital que amostra os valores de potência; e um software controlador. Mostramos uma nova metodologia para o desenvolvimento de modelos de potência para servidores Web que diminuem a quantidade de parâmetros dos modelos e reduzem as relações não lineares entre medidas de desempenho e potência do sistema. Avaliamos a nossa metodologia em dois servidores Web, um constituído por um processador AMD Opteron e outro por processador Intel i7. Nossos melhores modelos tem erro médio absoluto de 1,92% e noventa percentil para o erro absoluto de 2,66% para o sistema com processador Intel i7. O erro médio para o sistema composto pelo processador AMD Opteron é de 1,46% e o noventa percentil para o erro absoluto é igual a 2,08%. A implantação do sistema de otimização de potência global foi feita em um aglomerado de nós de processamento SeaMicro SM15k. A implementação se baseia no conceito de Virtual Power States, uma combinação de taxa de utilização de CPU com os estados de potência P e C disponíveis em processadores modernos, e no nosso algoritmo de otimização chamado Slack Recovery. Propomos e implementamos também um novo mecanismo capaz de controlar a utilização da CPU. Nossos resultados experimentais mostram que o nosso sistema de otimização pode reduzir o consumo de potência em até 16% quando comparado com o governador de potência do Linux chamado performance e em até 6,7% quando comparado com outro governador de potência do Linux chamado ondemand / Abstract: To keep up with an increasing demand for computational resources, IT companies need to build facilities that host hundreds of thousands of computers, the data centers. This environment is highly dependent on electrical energy, a resource that is becoming expensive and limited. In this context, this thesis develops a global data center-level power and performance optimization approach for Web Server data centers. It presents a power measurement framework for commodity servers, develops empirical models for estimating the power consumed by Web servers, and implements one of the global power optimization heuristics on a state-of-the-art, high-density SeaMicro SM15k cluster by AMD. The power measuring framework is composed of a custom made board, which is able to capture the power consumption; a data acquisition device that samples the measured values; and a piece of software that manages the framework. We show a novel method for developing full system Web server power models that prunes model parameters and reduces non-linear relationships among performance measurements and system power. The Web server power models use as parameters performance indicators read from the machine internal performance counters. We evaluate our approach on an AMD Opteron-based Web server and on an Intel i7-based Web server. Our best model displays an average absolute error of 1.92% for the Intel i7 server and 1.46% for AMD Opteron as compared to actual measurements, and 90th percentile for the absolute percent error equals to 2.66% for Intel i7 and 2.08% for AMD Opteron. We deploy the global power management system in a state-of-the-art SeaMicro SM15k cluster. The implementation relies on the concept of Virtual Power States, a combination of CPU utilization rate to the P/C power states available in modern processors, and on our global optimization algorithm called Slack Recovery. We also propose and implement a novel mechanism to control utilization rates in each server, a key aspect of our power/performance optimization system. Experimental results show that our Slack Recovery-based system can reduce up to 16% of the power consumption when compared to the Linux performance governor and 6.7% when compared to the Linux ondemand governor / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
|
148 |
Conhecimento e Internet = busca, exploração e a familiaridade / Knowledge and the Internet : search, exploration and the familiarityFigueira Filho, Fernando Marques, 1981- 19 August 2018 (has links)
Orientador: Paulo Lício de Geus / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-19T00:13:49Z (GMT). No. of bitstreams: 1
FigueiraFilho_FernandoMarques_D.pdf: 2794727 bytes, checksum: a731af5c0a52a8d8ee1e3dcb39119b01 (MD5)
Previous issue date: 2011 / Resumo: A Internet parece estar realizando o sonho de muitos visionários ao angariar parcela crescente do conhecimento humano e tornar seu acesso mais fácil. Entretanto, o modelo de interação para busca e exploração desse conhecimento é ainda similar àquele utilizado, por exemplo, por bibliotecários para consultar acervos de livros e publicações. Usuários entram com uma consulta constituída por palavras-chave e recebem como resposta uma lista de resultados que contém os termos utilizados na consulta. A exploração do conhecimento disponível através desse modelo apresenta dois problemas. Primeiro, os sistemas de busca são implementados sob o pressuposto que o conjunto de palavras-chave capaz de filtrar documentos relevantes é familiar ao usuário. No entanto, a heterogeneidade dos usuários da Internet frente ao imenso volume de informação disponível implica em diferentes níveis de familiaridade dos usuários com o conhecimento disponível. Segundo, a interpretação dos resultados retornados pelo sistema, de acordo com esse modelo, é delegada ao indivíduo, de modo que o usuário torna-se responsável por analisar e sintetizar o conteúdo filtrado para cumprir com os seus objetos de busca. Isto torna-se um problema em atividades de busca de longo prazo, que visam explorar o conhecimento para fins de aprendizado, revisão bibliográfica, dentre outras. A presente tese baseia-se em arcabouços teóricos das ciências sociais e em estudos empíricos para caracterizar e propor soluções para esses problemas. Os resultados mostram que a exploração do conhecimento na Internet depende de um conjunto de artefatos externos aos sistemas de busca atuais. Também mostram que a interação dos usuários com esses artefatos e com agentes humanos é parte integrante das atividades cognitivas desempenhadas para exploração do conteúdo disponível na Internet. Diferentes níveis de familiaridade demandam alternativas ao modelo de interação consulta-resposta e sugerem a integração de tecnologias da web social no desenvolvimento de sistemas de informação que visam suportar tarefas de busca exploratórias / Abstract: The Internet seems to be accomplishing the dream of visionaries by collecting part of the growing human knowledge and making its access easier. However, the interaction model for search and exploration of this knowledge is still similar to the one used, for example, by librarians to query over collections of books and publications. Users formulate queries that are constituted by keywords and receive a list of results in return, which contains the terms used in the entered query. The exploration of the available knowledge through this model presents two main problems. First, search systems are implemented under the assumption that the set of keywords to filter relevant documents is familiar to the user. But the heterogeneity of Internet users when faced to the huge amount of available information implies in different levels of familiarity of these same users regarding the available knowledge. Second, the interpretation of results returned by the system, according to this model, is delegated to the individual, and the user becomes responsible for analyzing and synthesizing the filtered content in order to meet his/her search goals. This becomes a problem in the case of long term search activities, that aims at exploring knowledge for purposes of learning, bibliography review and so on. This thesis is based on theoretical frameworks of the social sciences and on empirical studies to characterize and come up with solutions to those problems. The findings show that knowledge exploration on the Internet depends on a set of artifacts that are external to the search systems currently available. They also show that the user interaction with these artifacts and also with human agents is a fundamental part of the cognitive activities performed for knowledge exploration on the Internet. Different levels of familiarity demand alternatives to the query-response model and suggest the integration with social web technologies to develop information systems that support exploratory search tasks / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
|
149 |
Novas técnicas de distribuição de carga para servidores Web geograficamente distribuídos / An infrastructure for coordination of supply chain activities based on web services choreographyNakai, Alan Massaru, 1979- 14 September 2012 (has links)
Orientadores: Edmundo Roberto Mauro Madeira, Luiz Eduardo Buzato / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-21T19:31:37Z (GMT). No. of bitstreams: 1
Nakai_AlanMassaru_D.pdf: 3199160 bytes, checksum: b939ce461412f42df4f371a7cf37d2db (MD5)
Previous issue date: 2012 / Resumo: A distribuição de carga é um problema intrínseco a sistemas distribuídos. Esta tese aborda este problema no contexto de servidores web geograficamente distribuídos. A replicação de servidores web em datacenters distribuídos geograficamente provê tolerância a falhas e a possibilidade de fornecer melhores tempos de resposta aos clientes. Uma questão chave em cenários como este é a eficiência da solução de distribuição de carga empregada para dividir a carga do sistema entre as réplicas do servidor. A distribuição de carga permite que os provedores façam melhor uso dos seus recursos, amenizando a necessidade de provisão extra e ajudando a tolerar picos de carga até que o sistema seja ajustado. O objetivo deste trabalho foi estudar e propor novas soluções de distribuição de carga para servidores web geograficamente distribuídos. Para isso, foram implementadas duas ferramentas para apoiar a análise e o desenvolvimento de novas soluções, uma plataforma de testes construída sobre a implementação real de um serviço web e um software de simulação baseado em um modelo realístico de geração de carga para web. As principais contribuições desta tese são as propostas de quatro novas soluções de distribuição de carga que abrangem três diferentes tipos: soluções baseadas em DNS, baseadas em clientes e baseadas em servidores / Abstract: Load balancing is a problem that is intrinsic to distributed systems. In this thesis, we study this problem in the context of geographically distributed web servers. The replication of web servers on geographically distributed datacenters allows the service provider to tolerate failures and to improve the response times perceived by clients. A key issue for achieving good performance in such a deployment is the efficiency of the load balancing solution used to distribute client requests among the replicated servers. The load balancing allows providers to make better use of their resources, soften the need for over-provision, and help tolerate abrupt load peaks until the system can be adjusted. The objective of this work was to study and propose load balancing solutions for geographically distributed web servers. In order to accomplish this objective, we have implemented two tools that support the analysis and development of load balancing solutions, a testbed that was built on top of a real web service implementation and simulation software that is based on a realistic model for web load generation. The main contributions of this thesis are the proposals of four new load balancing solutions that comprehend three types: DNS-based, client-based, and server-based / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
|
150 |
Um método para avaliação remota e automatizada de usabilidade de aplicações Web / A method for remote and automatic usability evaluation of Web applicationsVargas, Ariel, 1981- 05 October 2012 (has links)
Orientador: Heloísa Vieira da Rocha / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-20T14:48:06Z (GMT). No. of bitstreams: 1
Vargas_Ariel_D.pdf: 20092407 bytes, checksum: a759e10b287a819834ba069524f29fee (MD5)
Previous issue date: 2012 / Resumo: Observar as ações de usuários interagindo com a interface de uma aplicação computacional é a base de métodos tradicionais de avaliação de usabilidade, como os testes com usuários e a observação em campo. Apesar de populares e eficientes na descoberta de problemas, esses métodos tradicionais são considerados bastante caros, devido aos custos de envolver usuários, de preparar a infra-estrutura e especialmente da própria execução dos métodos e análise de seus resultados. A qualidade dos resultados da execução desses métodos depende da escolha dos usuários participantes da avaliação, que precisam ser representativos de todos os perfis de usuários da aplicação avaliada. Na Web, devido à diversidade e característica distribuída dos usuários, a obtenção de usuários representativos dos diversos perfis torna-se bastante difícil. Nos métodos tradicionais de avaliação, especialistas em usabilidade analisam a interação de cada usuário interagindo com a aplicação, para encontrar problemas de usabilidade. Esta análise depende do conhecimento e esforço desses especialistas para encontrar problemas na aplicação avaliada. Desse modo, os métodos tradicionais, se utilizados em grande escala de usuários, tornam-se demasiadamente caros devido a seus custos e tempo de execução. Outra característica importante das aplicações Web é sua constante evolução, o que necessita de avaliações de usabilidade periódicas e constantes, para verificar se alterações não prejudicam sua usabilidade. Da mesma forma, os métodos tradicionais de avaliação de usabilidade tornam-se demasiadamente caros, se utilizados em avaliações constantes da usabilidade de aplicações Web. Nesse contexto, esta tese buscou, na automatização do processo de avaliação de usabilidade, uma alternativa para diminuir as dificuldades mencionadas anteriormente em se avaliar a usabilidade de aplicações Web, especialmente em sua fase de manutenção. Assim, esta tese defende a hipótese de que, utilizando-se um método de avaliação de usabilidade fundamentado na captura e análise da interação de usuários de maneira remota e automatizada, é possível diminuir as dificuldades existentes nos métodos tradicionais na fase de manutenção de uma aplicação Web, possibilitando ainda: a análise da interação de usuários em campo e em grande escala de usuários; a identificação de padrões de interação dos usuários com a aplicação; uma avaliação com baixo custo de execução, favorecendo a realização de avaliações periódicas de usabilidade de uma aplicação Web. Neste sentido, esta tese apresenta o desenvolvimento do WebHint, um método remoto e automatizado de avaliação de usabilidade para aplicações Web. O método proposto nesta tese foi aplicado em três estudos de usabilidade que validaram o WebHint como uma alternativa viável para a realização de avaliações remotas e automatizadas de usabilidade de aplicações Web / Abstract: Observing users interacting with user interfaces is the basis of traditional usability evaluation methods as user tests and field observation. In spite of their popularity and efficiency in finding usability problems, these traditional methods are considered expensive, due to the costs of involving users in the evaluation, preparing the infrastructure and specially, due to the costs of executing the methods and analyzing the results. The quality of the results obtained with these methods depends on the users participating of the evaluation, who need to represent all the user's profiles of the evaluated application. In the Web, due to the diversity and distributed location of the users, it is difficult to obtain representative users. In traditional methods, usability experts analyze the behavior of each user interacting with the application in order to detect usability problems. This subjective analysis depends on the knowledge and work of the expert to find the problems. This way, the traditional methods became too expensive when it is necessary to involve high number of users in the evaluation. Another important aspect of Web applications is their frequent evolvement, which requires usability evaluations performed frequently to avoid usability problems caused by changes on the applications. The same way, the traditional methods are too expensive to be performed in a regular basis. In that context, this thesis proposes an automatic method for usability evaluation, as an alternative approach to deal with the difficulties mentioned above. This way, this thesis supports the hypothesis that is possible to decrease the difficulties regarding to the traditional methods through a usability evaluation method based on the automatic capture and analysis of user's interaction. Thus, this thesis, presents the development of the WebHint, a remote and automatic usability evaluation method for Web applications. The proposed method was applied in three usability studies, and their results validated the WebHint as a feasible alternative to perform remote and automatic usability evaluations of Web applications / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
|
Page generated in 0.1518 seconds