• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 135
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 138
  • 138
  • 138
  • 51
  • 51
  • 45
  • 41
  • 40
  • 37
  • 34
  • 31
  • 30
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Recuperação de informações sobre LOG de eventos apoiada em ontologia

Esbízaro, André Luiz Dias 22 May 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Economia, Administração, Contabilidade e Ciência da Informação e Documentação, Departamento de Ciência da Informação e Documentação, 2006. / Submitted by Kathryn Cardim Araujo (kathryn.cardim@gmail.com) on 2009-11-03T11:18:56Z No. of bitstreams: 1 2006_André Luiz Dias Esbízaro.pdf: 8161059 bytes, checksum: e3168946f6b99924555a783749d6515d (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2010-09-30T11:46:19Z (GMT) No. of bitstreams: 1 2006_André Luiz Dias Esbízaro.pdf: 8161059 bytes, checksum: e3168946f6b99924555a783749d6515d (MD5) / Made available in DSpace on 2010-09-30T11:46:19Z (GMT). No. of bitstreams: 1 2006_André Luiz Dias Esbízaro.pdf: 8161059 bytes, checksum: e3168946f6b99924555a783749d6515d (MD5) / A pesquisa propõe o desenvolvimento de uma ontologia de log de eventos do sistema operacional Microsoft Windows Server 2003, visando facilitar a recuperação de informações para apoiar o entendimento e a resolução de logs de eventos. Os sistemas de solução de eventos apresentam problemas relativos à falta de instrumentos para acesso ao conteúdo semântico dos registros e para armazenamento do conhecimento adquirido sobre log de eventos e à ausência de compreensão comum sobre logs de eventos e de relacionamentos entre os diferentes fatores que levam à ocorrência de erros nos sistemas operacionais. As etapas da metodologia abrangem: análise das características do site oficial Events and Errors Message Center e o programa aplicativo Event Viewer (Visualizar Eventos), levantamento de informações sobre log de eventos, modelagem da ontologia, simulação do uso da ontologia numa interface de busca sobre log de eventos e análise dos resultados obtidos na busca usando as ferramentas da Microsoft e na busca apoiada por ontologia. O resultado da pesquisa revela dificuldades no entendimento dos log de eventos, devido à dispersão das informações sobre logs nas ferramentas analisadas, à falta de relacionamento entre conceitos envolvidos na resolução dos logs, à ausência total de informações sobre determinados logs identificados. De maneira geral, conclui que a ontologia auxilia no entendimento dos log de eventos, mas que sua resolução depende de um nível mais profundo de descrição ontológica. _________________________________________________________________________________________________________________ ABSTRACT / This research proposes the development of an ontology of event logs in the Microsoft Windows Server 2003 operating system, aiming to facilitate the information retrieval to support the understanding and the resolution of event logs. The systems of solution of events present some problems relative to the lack of instruments to access the semantic content of the registers and storing the acquired knowledge on event logs and the absence of common understanding errors about event logs e the relationship among the different factors to the occurrence of operating system errors. The stages of the methodology enclose: analysis of the features of the official site Events and Errors Message Center and the application program Event Viewer (to visualize Events), survey of information on event logs, the modeling of the ontology, simulation of the use of the ontology in an interface of search on event logs and the analysis of the results gotten in the search using the Microsoft tools and in the search supported by the ontology. The result of the research discloses difficulties in the understanding of event logs, due to dispersion of the information on logs in the analyzed tools, to the lack of relationship between the involved concepts in the resolution of logs, and the total absence of information on determined identified logs. In general way, it concludes that the ontology assists in the understanding of event logs, but that its resolution depends on a deeper level of ontologic description.
22

O Protocolo SCTP e suas variações : uma avaliação da funcionalidade de multi-homing com base em redes WLAN

Pereira, Helder Cleber Almeida 30 September 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Engenharia Elétrica, 2011. / Submitted by Shayane Marques Zica (marquacizh@uol.com.br) on 2011-09-12T19:26:08Z No. of bitstreams: 1 2010_HelderCleberAlmeidaPereira.pdf: 13304917 bytes, checksum: d6acdaf027b64c38c1dc252e5fd07b93 (MD5) / Approved for entry into archive by LUCIANA SETUBAL MARQUES DA SILVA(lucianasetubal@bce.unb.br) on 2011-09-19T16:56:04Z (GMT) No. of bitstreams: 1 2010_HelderCleberAlmeidaPereira.pdf: 13304917 bytes, checksum: d6acdaf027b64c38c1dc252e5fd07b93 (MD5) / Made available in DSpace on 2011-09-19T16:56:04Z (GMT). No. of bitstreams: 1 2010_HelderCleberAlmeidaPereira.pdf: 13304917 bytes, checksum: d6acdaf027b64c38c1dc252e5fd07b93 (MD5) / O presente trabalho, inicialmente, descreve o protocolo SCTP (”Stream Control Transmission Protocol”) e algumas de suas variações, e em seguida apresenta um estudo para obter um maior ganho de desempenho no emprego desse protocolo quando em multi-homing, beneficiando de maneira direta a sua utilização por aplicações, através da proposta de agregação de novos mecanismos `aquele protocolo, tornando-o mais proativo no acompanhamento do estado dos diferentes recursos de transmissão disponibilizados pelo protocolo e na adaptação ao uso do caminho que melhor atenda à necessidade das aplicações¸ seja em cenário estático ou dinâmico em relação à movimentação das partes envolvidas na associação SCTP.A solução proposta, aqui chamada de PA-SCTP (Proativo Adaptativo SCTP), busca fazer uso do multi-homing de forma mais adaptativa e proativa `as necessidade das aplicações.Para demonstrar o ganho de desempenho com o uso do PA-SCTP, gráficos relativos a atraso, atraso médio, variação da janela de transmissão (cwnd) e vazão foram utilizados de forma comparativa com os gráficos gerados pelo SCTP-Padrão (SCTP com valores de parâmetros configuráveis sugeridos pela RFC 4960), SCTP-Parametrizado (SCTP com valores de parâmetros configuráveis mais sensíveis à condição do meio de transmissão) e RSCTP (solução proposta por Kim et al. [1] que busca otimizar o protocolo SCTP nas decisões de troca do caminho de transmissão dos pacotes de dados).O PA-SCTP funciona como um módulo auxiliar em uma comunicação fim a- fim SCTP,que computa informações referentes a paradas no recebimento de pacotes, picos de atraso,atraso médio e variação da janela de transmissão (CWND). Por meio desse acompanhamento da comunicação por parte do cliente, o PA-SCTP ditará o melhor momento de fazer a trocado caminho de transmissão, ou seja, menos danoso para a aplicação. _______________________________________________________________________________ ABSTRACT / This work, initially, describes the Stream Control Transmission Protocol (SCTP) and some variations. On the continuation, it presents a study to obtain a higher gain in performance with multi-homing in the utilization of the mentioned protocol, benefiting directly to the applications, considering the aggregation of new mechanisms to the SCTP protocol,making it more proactive in following, in the most active modes, the status of the different transmission resources available by the protocol and adaptive to the use of the path that best meets the application needs, whether in dynamic or static scenario in relation for the movement of the parties involved in the SCTP association.The solution proposed, which is here called PA-SCTP (Proactive Adaptive SCTP), aimsto make use of multi-homing, considering the needs of applications with an adaptive and proactive behaviour. To demonstrate the gain of performance with the use of the PA-SCTP, graphics related to the delay, the average delay, the variation of the transmission window(CWND) and flow rate were used in a comparative way with the graphics generated byDefault-SCTP (SCTP with values configurable parameters suggested by RFC 4960), SCTP Parametrized (SCTP with values of configurable parameters most sensitive to the condition of the way transmission) and R-SCTP (solution proposed by Kim et al. [1] which aims to optimize the protocol SCTP in decisions to change the transmission path of data packets. The PA-SCTP operates as an auxiliary module in SCTP-based end-to-end communication,which computes the information refering to the stop of receiving packets, peak delay,average delay and variation of the transmission window (CWND) . Through this monitoring of the communication by the client, the PA-SCTP will dictate the best time to make the switch the transmission path, that is, less damage to the application.
23

Mecanismo de negociação de auditor de QoS para grades baseado em WS-Agreement

Silva, Alisson Wilker Andrade 21 July 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2011. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2011-11-21T13:02:13Z No. of bitstreams: 1 2011_AlissonWilkerAndradeSilva.pdf: 1786146 bytes, checksum: 837f23427bf32a578300067a9881b7df (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2012-01-03T15:35:12Z (GMT) No. of bitstreams: 1 2011_AlissonWilkerAndradeSilva.pdf: 1786146 bytes, checksum: 837f23427bf32a578300067a9881b7df (MD5) / Made available in DSpace on 2012-01-03T15:35:12Z (GMT). No. of bitstreams: 1 2011_AlissonWilkerAndradeSilva.pdf: 1786146 bytes, checksum: 837f23427bf32a578300067a9881b7df (MD5) / As plataformas de alto desempenho compostas por recursos computacionais comuns, como as grades computacionais e os sistemas peer-to-peer, evoluíram bastante e assumiram um papel de destaque na última década. Porém, o seu uso de forma mais ampla ainda depende do estabelecimento de uma infraestrutura de qualidade de servi co (QoS) efetiva nesses ambientes, possibilitando a utilização comercial dessas plataformas em escala global. Por esse motivo, várias propostas de mecanismos para prover QoS em grades computacionais têm surgido recentemente, nas quais consumidor e provedor monitoram e controlam os recursos da grade a afim de garantir acordos de nível de serviço previamente estabelecidos. Contudo, devido a falta de confiança entre provedor e consumidor com relação ao monitoramento desses acordos, surge a necessidade de se introduzir a figura de um auditor de QoS como uma terceira entidade, que deve ser imparcial e de confiança tanto do provedor como do consumidor, afim de resolver con flitos de interesse. Como podem existir vários auditores de confiança do provedor e do consumidor, o auditor de QoS também precisa ser negociado e estabelecido, assim como é feito para o estabelecimento do acordo de nível de serviço armado entre as partes. A presente dissertação de mestrado propõe e analisa um mecanismo de negociação de auditores de QoS nesse contexto. Algumas das características do mecanismo proposto são a baixa intrusividade e o uso de padrões abertos, como o WS-Agreement. ______________________________________________________________________________ ABSTRACT / High performance platforms composed of ordinary computing resources, such as grids and peer-to-peer systems, have greatly evolved and assumed an important role in the last decade. Nevertheless, its wide use still depends on establishing an e ective quality of service (QoS) infrastructure in those environments, which may enable the commercial use of those platforms in global scale. For this reason, a variety of proposals to support QoS in grids have emerged recently, in which consumer and provider monitor and control grid resources in order to guarantee previously established service level agreements. However, due to the lack of trust between provider and consumer in relation to monitoring those agreements, it becomes necessary to introduce a QoS auditor as a third entity, which must be impartial and trusted by both provider and consumer, in order to solve con icts of interest. As there may be several auditors trusted by provider and consumer, the QoS auditor also needs to be negotiated and established, just as for the establishment of the service level agreement agreed by the parties. The present master's thesis proposes and analyzes a negotiation mechanism for QoS auditors in this context. Some of the proposed mechanism's characteristics are low intrusiveness and use of open standards, such as WSAgreement.
24

Visões progressivas de computações distribuidas

Garcia, Islene Calciolari, 1971- 18 December 2001 (has links)
Orientador : Luiz Eduardo Buzato / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-29T03:55:29Z (GMT). No. of bitstreams: 1 Garcia_IsleneCalciolari_D.pdf: 7273210 bytes, checksum: 2bc04d2a705337b28f6c598e011ecde7 (MD5) Previous issue date: 2001 / Resumo: Um checkpoint é um estado selecionado por um processo durante a sua execução. Um checkpoint global é composto por um checkpoint de cada processo e é consistente se representa urna foto­grafia da computação que poderia ter sido capturada por um observador externo. Soluções para vários problemas em sistemas distribuídos necessitam de uma seqüência de checkpoints globais consistentes que descreva o progresso de urna computação distribuída. Corno primeira contri­buição desta tese, apresentamos um conjunto de algoritmos para a construção destas seqüências, denominadas visões progressivas. Outras contribuições provaram que certas suposições feitas na literatura eram falsas utilizando o argumento de que algumas propriedades precisam ser válidas ao longo de todo o progresso da computação. Durante algumas computações distribuídas, todas as dependências de retrocesso entre check­points podem ser rastreadas em tempo de execução. Esta propriedade é garantida através da indução de checkpoints imediatamente antes da formação de um padrão de mensagens que poderia dar origem a urna dependência de retrocesso não rastreável. Estudos teóricos e de simu­lação indicam que, na maioria das vezes, quanto mais restrito o padrão de mensagens, menor o número de checkpoints induzidos. Acreditava-se que a caracterização minimal para a obtenção desta propriedade estava estabelecida e que um protocolo baseado nesta caracterização precisa­ria da manutenção e propagação de informações de controle com complexidade O(n2), onde n é o número de processos na computação. A complexidade quadrática tornava o protocolo base­ado na caracterização mimimal menos interessante que protocolos baseados em caracterizações maiores, mas com complexidade linear.A segunda contribuição desta tese é uma prova de que a caracterização considerada minimal podia ser eduzida, embora a complexidade requerida por um protocolo baseado nesta nova caracterização minimal continuasse indicando ser quadrática. A terceira contribuição desta tese é a proposta de um pequeno relaxamento na caracterização minimal que propicia a implementação de um protocolo com complexidade linear e desempenho semelhante à solução quadrática. Como última contribuição, através de um estudo detalhado das variações da informação de controle durante o progresso de urna computação, propomos um protocolo que implementa exatamente a caracterização minimal, mas com complexidade linear / Abstract: A checkpoint is a state selected by a process during its execution. A global checkpoint is composed of one checkpoint from each process and it is consistent if it represents a snapshot of the computation that could have been taken by an external observer. The solution to many problems in distributed systems requires a sequence of consistent global checkpoints that describes the progress of a distributed computation. As the first contribution of this thesis, we present a set of algorithms to the construction of these sequences, called progressive views. Additionally, the analysis of properties during the progress of a distributed computation allowed us to verify that some assumptions made in the literature were false. Some checkpoint patterns present only on-line trackable rollback-dependencies among check­points. This property is enforced by taking a checkpoint immediately before the formation of a message pattern that can produce a non-trackable rollback-dependency. Theoretical and simula­tion studies have shown that, most often, the more restricted the pattern, the more efficient the protocol. The minimal characterization was supposed to be known and its implementation was supposed to require the processes of the computation to maintain and propagate O(n2) control information, where n is the number of processes in the computation. The quadratic complexity makes the protocol based on the minimal characterization less interesting than protocols based on wider characterizations, but with a linear complexity. The second contribution of this thesis is a proof that the characterization that was supposed to be minimal could be reduced. However, the complexity required by a protocol based on the new minimal characterization seemed to be also quadratic. The third contribution of this thesis is a protocol based on a slightly weaker condition than the minimal characterization, but with linear complexity and performance similar to the quadratic solution. As the last contribution, through a detailed analysis of the control information computed and transmitted during the progress of distributed computations, we have proposed a protocol that implements exactly the minimal characterization, but with a linear complexity / Doutorado / Doutor em Ciência da Computação
25

Caracterização de software científico: um estudo de caso em modelagem computacional

Souza, Nívea Bellose Oliveira de 27 January 2011 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-03T13:55:18Z No. of bitstreams: 1 niveabelloseoliveiradesouza.pdf: 433721 bytes, checksum: a972d4c150cb0c48e0527c361b1b3118 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T20:15:07Z (GMT) No. of bitstreams: 1 niveabelloseoliveiradesouza.pdf: 433721 bytes, checksum: a972d4c150cb0c48e0527c361b1b3118 (MD5) / Made available in DSpace on 2017-03-06T20:15:07Z (GMT). No. of bitstreams: 1 niveabelloseoliveiradesouza.pdf: 433721 bytes, checksum: a972d4c150cb0c48e0527c361b1b3118 (MD5) Previous issue date: 2011-01-27 / Na era da Internet, os Softwares Científicos são não somente o instrumento para a geração de resultados, mas também cruciais para a maior parte das pesquisas. A maioria dos cientistas, entretanto, aprende o que sabe sobre desenvolvimento de software informalmente, e esta informalidade normalmente gera um caráter aleatório aos produtos finais de software, dificultando o seu reuso e a sua interoperabilidade. Os Softwares Científicos, desenvolvidos especificamente para atender às necessidades de cada cientista em sua respectiva área de atuação, tornaram-se muito importantes tanto em seu desenvolvimento quanto em sua utilização e, dependendo da natureza da atividade científica em questão, essenciais. Outra característica da computação científica é que os Softwares Científicos também são frequentemente explorativos, desenvolvidos com o propósito de ajudar a entender um problema. Muitas práticas da Engenharia de Software podem contribuir para a geração de produtos científicos de alta qualidade. A aplicação de modelos, técnicas e ferramentas contribuem para a construção do Software Científico mais confiável, seguro e eficiente e que apresente menos falhas durante a sua execução. Estudos recentes apontam para a aplicação de métodos ágeis, pelo fato de os mesmos serem mais receptivos a mudanças e por lidarem melhor com requisitos emergenciais. Essa dissertação tem por objetivo caracterizar o desenvolvimento do Software Científico, através de um estudo exploratório com um grupo de pesquisadores do LNCC, especialistas na área de modelagem computacional. Para a caracterização do Software Científico foi construído um instrumento com as seguintes questões de investigação: identificação de características de qualidade do Software Científico; identificação dos modelos de processos adotados no desenvolvimento do Software Científico; possibilidades de adoção de práticas da Engenharia de Software; possibilidade de desenvolvimento de Software Científico por equipe especializada, que não os próprios cientistas; reutilização de artefatos científicos; compartilhamento de Software Científico e identificação de características dos workflows científicos. Com a aplicação do instrumento, os resultados foram quantificados e analisados, identificando características do Software Científico e de workflow científico. Ao final são definidas algumas propostas para a adoção de práticas de Engenharia de Software pelos cientistas avaliados. Os resultados fornecem indícios de como melhorar o Software Científico, seu processo de desenvolvimento, seu compartilhamento e reuso. / In the Internet era, scientific software are not only an instrument to generate results but also crucial to most researches. A lot of scientists, however, learn what they know about software development informally, and this informality typically generates a random character to the final software products, making it difficult to reuse and interoperate. Scientific software specifically developed to meet individual scientists needs in their respective areas of work have become very important both in its development process as in its use and, depending on the nature of scientific activity, it is essential. Another feature of scientific computing is that the scientific software are also often exploited, developed with the focus of helping to understand a problem. Many software engineering disciplines can contribute to the generation of high-quality scientific products. The application of models, techniques and tools contribute to the construction of scientific software more reliable, secure and efficient and with fewer failures during its execution. Recent studies point to the application of agile methods, because they are more receptive to change and deal better with emergency requirements. This research aims to characterize the development of scientific software, through an exploratory study with a group of researchers from LNCC, experts in computational modeling area. For the characterization of scientific software we built an instrument with the following research questions: identify scientific software quality criteria, identification of development process models for scientific software, adoption possibilities for Software Engineering practices, possibility of scientific software development by specialized team instead of scientists themselves, re-use of scientific artifacts, sharing of scientific software and identification of scientific workflows characteristics. After the application of the instrument, the results were quantified and analyzed, identifying characteristics of scientific software and scientific workflow. At the end we define some proposals for software engineering practices adoption by scientists involved in this research. The results provide evidences on how to improve scientific software, its development process, sharing and reuse.
26

Estudo comparativo de algoritmos para checkpointing

Vieira, Gustavo Maciel Dias 18 December 2001 (has links)
Orientador : Luiz Eduardo Buzato / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-01T02:33:00Z (GMT). No. of bitstreams: 1 Vieira_GustavoMacielDias_M.pdf: 3096254 bytes, checksum: 30b7155e50de3e9afd753dd40520b771 (MD5) Previous issue date: 2001 / Resumo: Esta dissertação fornece um estudo comparativo abrangente de algoritmos quase-síncronos para checkpointing. Para tanto, utilizamos a simulação de sistemas distribuídos que nos oferece liberdade para construirmos modelos de sistemas com grande facilidade. O estudo comparativo avaliou pela primeira vez de forma uniforme o impacto sobre o desempenho dos algoritmos de fatores como a escala do sistema, a freqüência de check points básicos e a diferença na velocidade dos processos da aplicação. Com base nestes dados obtivemos um profundo conhecimento sobre o comportamento destes algoritmos e produzimos um valioso referencial para projetistas de sistemas em busca de algoritmos para check pointing para as suas aplicações distribuídas / Abstract: This dissertation provides a comprehensive comparative study ofthe performance of quase synchronous check pointing algorithms. To do so we used the simulation of distributed systems, which provides freedom to build system models easily. The comparative study assessed for the first time in an uniform environment the impact of the algorithms' performance with respect to factors such as the system's scale, the basic checkpoint rate and the relative processes' speed. By analyzing these data we acquired a deep understanding of the behavior of these algorithms and were able to produce a valuable reference to system architects looking for check pointing algorithms for their distributed applications / Mestrado / Mestre em Ciência da Computação
27

DisCusS : desenvolvendo um serviço de concenso generico, simples e modular

Camargos, Lásaro Jonas 29 August 2003 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T18:00:42Z (GMT). No. of bitstreams: 1 Camargos_LasaroJonas_M.pdf: 3140522 bytes, checksum: 05a0621c657843119225cda44fec1186 (MD5) Previous issue date: 2003 / Resumo: Esta dissertação trata do processo de engenharia de um serviço de detecção de falhas compatível com FT-CORBA, a especm.cação para tolerância a falhas em CORBA, e de um serviço de consenso distribuído. Os serviços são independentes e fornecem diferentes propriedades para a aplicação cliente, dependendo dos módulos, com implementaçães de algoritmos diferentes, selecionados para uma instanciação destes serviços. A arquitetura dos serviços é tal que a aplicação cliente não toma conhecimento dos algoritmos de detecção e consenso sendo executados, acessando-os por uma interface genérica. Com o intuito de facilitar a escolha dos módulos dos serviços, apresentamos um pequeno estudo comparativo da influência de detectores de falhas adaptativos, aqueles que se adaptam para prover melhor qualidade de serviço na detecção, e não adaptativos sobre o desempenho dos algoritmos de consenso distribuído / Abstract: This thesis is on the process of development of a distributed consensus service and its fault detection service, being the last one, compliant with FT -CORBA, the Fault Tolerant CORBA specification. These services are independent and, depending on the selected modules, offer different properties to client applications. The presented architecture is defined in such a way that client applications do not know which algorithms are running, both for detection and for consensus, just accessing them through a generic interface. To make easier the task of selecting modules in the services, we also present a comparative study of the influence of adaptive and non-adaptive failure detectors over the execution of consensus algorithms / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
28

Ketib : um processo de representação de informações para textos complexos

Kerr, Eduardo Santos 30 July 2003 (has links)
Orientadores: Paulo Licio de Geus, Fernando Antonio Vanini / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T18:44:46Z (GMT). No. of bitstreams: 1 Kerr_EduardoSantos_M.pdf: 2585011 bytes, checksum: 2fd67d43272fa13f5e50ede1ec493050 (MD5) Previous issue date: 2003 / Resumo: O termo "texto complexo" é utilizado para classificar um texto que possua relações transtextuais dentro do texto de origem e com textos complementares, que sirvam para agregar os diferentes tipos de análise e crítica, ou simplesmente para permitir uma melhor compreensão. Nesse trabalho, é proposto um processo para representação de informação em textos complexos utilizando a meta linguagem XML e algumas tecnologias relacionadas. Como parte do processo de representação, foi definido um modelo denominado Ketib, que é aplicado, a título de estudo de caso, à obra Biblia Hebraica Stuttgartensia. Este texto foi escolhido por apresentar um alto grau de complexidade, tomando possível demonstrar o potencial do modelo no tratamento da representação e da codificação de informações com natureza multidimensional que contenham diferentes sistemas de referência. Os resultados não estão restritos ao estudo de caso e demonstram a viabilidade desse processo em textos de outros domínios / Abstract: The phrase "complex text" applies to texts that possess transtextual relations within the source text and that relate to other supplementary texts, either for aggregating the different kinds of critiques and analyses, or just for better understanding. This work proposes a process for the representation of information in complex texts using the XML language and some related technologies. As part of the representation process, the model defined was one called Ketib, and it is applied, as a case study, to the Biblia Hebraica Sttutgartensia. The reason for selecting this text was its high degree of complexity, making it possible to validate the potential of the model when treating the representation and the codification of information of a multidimensional nature, containing different reference systems. The results are not restricted to the case study and demonstrate the possibilities of this process in texts in other domains / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
29

Coleta de lixo para protocolos de checkpointing

Schmidt, Rodrigo Malta 03 August 2018 (has links)
Orientadores : Luiz Eduardo Buzato, Islene Calciolari Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T19:18:25Z (GMT). No. of bitstreams: 1 Schmidt_RodrigoMalta_M.pdf: 745421 bytes, checksum: c32cef5e0a61fe3580cc8a211902f9fd (MD5) Previous issue date: 2003 / Mestrado
30

Um modelo para portais moveis baseado em middleware reflexivo e agentes moveis

Gialdi, Marcos Vinicius 03 August 2018 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T23:48:58Z (GMT). No. of bitstreams: 1 Gialdi_MarcosVinicius_M.pdf: 1923285 bytes, checksum: f6fb283d7e5132fe50ecf03493e3c971 (MD5) Previous issue date: 2004 / Resumo: A Computação Móvel possibilita o acesso a informação de qualquer lugar e a qualquer momento. Contudo, as preferências do usuário e as limitações geradas no ambiente móvel trazem a necessidade de personalizar o acesso aos serviços. Este trabalho descreve o ICoMP (I-centric Communication Mobile Portal), um modelo para Portal Móvel que oferece serviços aos usuários baseado no seu perfil (preferências, recursos disponíveis, localização e contexto). O ICoMP baseia-se na abordagem I-centric, onde os sistemas adaptam-se dinamicamente às necessidades do usuário e às mudanças no ambiente móvel. A infra-estrutura do ICoMP integra um middleware reflexivo (ReMMoC) e uma plataforma de Agentes Móveis (Grasshopper ) para dar suporte a dois tipos de acesso: a serviços oferecidos por agentes móveis e serviços implementados por tipos de middleware heterogêneos. Além disso, uma avaliação do modelo ICoMP é feita em termos de espaço de armazenamento e no suporte a aplicações móveis / Abstract: Mobile Computing enables information access anytime, anywhere. However, the needs of users and the constraints generated by the mobile environment raise the necessity to personalize access to services. This work describes ICoMP (I-centric Communication Mobile Portal), which is a mobile portal model that offers services based upon user profiles (these contain information including: preferences, available resources, location and environment context). Notably, ICoMP follows an I-Centric approach, whereby the system dynamically adapts to manage both user requirements and changes in the mobile environment. ICoMP's infrastructure integrates a reflective middleware (ReMMoC) and a mobile agent platform (Grasshopper) to support two types of access to information and application services, i.e. it interoperates with both services offered by mobile agents and also services implemented upon heterogeneous middleware. Moreover, we evaluate our implementation of the ICoMP portal in terms of memory footprint cost and support for mobile applications / Mestrado

Page generated in 0.1346 seconds