• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 1
  • Tagged with
  • 10
  • 10
  • 10
  • 7
  • 7
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Raclouds

Silva, Paulo Fernandes da January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2016-05-24T17:40:04Z (GMT). No. of bitstreams: 1 339456.pdf: 2374262 bytes, checksum: 6d136ec11e0672425a8b7151e7f197a9 (MD5) Previous issue date: 2015 / A computação em nuvem oferece benefícios em termos de disponibilidade e custo, porém afasta a gerência de segurança da informação do cliente da nuvem, transferindo-a para o provedor de serviços em nuvem. Com isto, o cliente perde o controle sobre a segurança de suas informações e serviços. Este fator tem desmotivado a migração para a computação em nuvem entre muitos clientes em potencial. Os esforços atualmente empreendidos para segurança da informação em nuvem são em sua maioria gerenciados pelo próprio provedor de serviços em nuvem, deixando o cliente novamente à margem da gerência de segurança de suas próprias informações e serviços. A análise de risco é uma importante ferramenta de gerenciamento de segurança da informação, que permite identificar as principais vulnerabilidades, ameaças e impactos em um ambiente de tecnologia da informação. Esta tese de doutorado apresenta um modelo de análise de risco para ambientes de computação em nuvem, no qual o provedor dos serviços de nuvem não seja o único responsável por todas as etapas da análise de risco. No modelo proposto o cliente da nuvem poderá realizar análises de risco em seu provedor de nuvem de modo abrangente, aderente e independente. O modelo proposto estabelece responsabilidades compartilhadas entre três entidades: Cliente, Provedor e Laboratório de Segurança, além de propor uma linguagem para representação do risco e um modelo para correlação entre os elementos integrantes da análise de risco (ameaças, vulnerabilidades e ativos de informação). A inclusão do agente demoninado de Laboratório de Segurança oferece mais credibilidade à análise de risco, tornando os resultados mais consistentes para o cliente da nuvem. Para realização de experimentos simulados foi desenvolvido um protótipo do modelo de análise de risco proposto, validando as características de abrangência, aderência e independência desejadas na análise de risco em nuvem.<br> / Abstract : Cloud computing offers benefits in terms of availability and cost, but away from the security management of the cloud customer information, transferring it to the cloud service provider. With this, the client loses control over the security of their information and services. This factor has discouraged migration to cloud computing among many potential customers. Efforts currently undertaken to cloud information security are mostly managed by own cloud services provider, leaving the client again on the margins of safety management of their own information and services. Risk analysis is an important information security management tool that enables you to identify the main vulnerabilities, threats and impacts in an information technology environment. This doctoral thesis presents a risk analysis model for cloud computing environments in which the provider of cloud services is not solely responsible for all risk analysis stages. In the model proposed the cloud customer can perform risk analysis on your cloud provider in a comprehensive way, bonded and independent. The proposed model establishes shared responsibilities among three entities: Customer, Provider and Security Laboratory, in addition to proposing a language for risk representation and a model to correlate the risk analysis integral elements (threats, vulnerabilities and information assets). The inclusion of the Security Laboratory agent provides more credibility to the risk analysis, making the most consistent results for the cloud customer. To perform simulated experiments it developed a prototype of the proposed risk analysis model, validating the completeness of features, grip and independence desired in cloud risk analysis.
2

Formulas for p-th root computations in finite fields of characteristic p using polynomial basis

Perin, Lucas Pandolfo January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-05-24T17:57:52Z (GMT). No. of bitstreams: 1 339450.pdf: 541374 bytes, checksum: f41e40b020a69e46c7f813384780d40b (MD5) Previous issue date: 2016 / Motivado por algoritmos criptográficos de emparelhamento bilinear, a computação da raiz cúbica em corpos finitos de característica 3 já fora abordada na literatura. Adicionalmente, novos estudos sobre a computação da raiz p-ésima em corpos finitos de característica p, onde p é um número primo, têm surgido. Estas contribuições estão centradas na computação de raízes para corpos de característica fixa ou para polinômios irredutíveis com poucos termos não nulos. Esta dissertação propõe novas famílias de polinômios irredutíveis em ??p, com k termos não nulos onde k = 2 e p = 3, para a computação eficiente da raiz p-ésima em corpos finitos de característica p. Além disso, para o caso onde p = 3, são obtidas novas extensões onde a computação da raiz cúbica é eficiente e polinômios cujo desempenho é ligeiramente melhor em comparação aos resultados da literatura. Palavras-chave: Criptografia, Teoria de Números, Aritmética em Corpos Finitos.<br> / Abstract : Efficient cube root computations in extensions fields of characteristic three have been studied, in part motivated by pairing cryptography implementations. Additionally, recent studies have emerged on the computation of p-th roots of finite fields of characteristic p, where p prime. These contributions have either considered a fixed characteristics for the extension field or irreducible polynomials with few nonzero terms. We provide new families of irreducible polynomials over ??p, taking into account polynomials with k = 2 nonzero terms and p = 3. Moreover, for the particular case p = 3, we slightly improve some previous results and we provide new extensions where efficient cube root computations are possible.
3

Modelo de agentes e-BDI integrando confiança baseado em sistemas multi-contexto

Gelaim, Thiago Angelo January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-05-24T17:54:52Z (GMT). No. of bitstreams: 1 339453.pdf: 2208666 bytes, checksum: ae7c28d4d2b6fa440042d4447582854e (MD5) Previous issue date: 2016 / Em sistemas multiagente, seus integrantes precisam interagir a fim de realizar seus objetivos. Existem situações em que entidades mal-intencionadas fazem parte do ambiente. Desta forma, para decidir com quem interagir é preciso considerar o comportamento dos candidatos. Neste contexto, mecanismos de confiança são utilizados como forma de proteção contra entidades fraudulentas. Na literatura são encontrados diversos modelos de confiança, em muitos casos considerando mais o aspecto funcional do modelo do que a sua influência no ciclo de raciocínio do agente. De acordo com a perspectiva do agente, um modelo de confiança é como uma  caixa-preta . O objetivo deste trabalho é propor um modelo de agente em que a confiança faça parte de seu raciocínio. O modelo proposto, inspirado em BDI, é definido a partir de um sistema multi-contexto e faz uso de um modelo computacional de emoções, visando vincular a subjetividade das experiências do agente com a definição de confiança.<br> / Abstract : In multiagent systems, its members need to interact in order to fulfill its goals. There are situations where malicious entities are inhabiting the environment. Thus, to decide with whom to interact it is necessary to consider the behavior of the candidates. In this context, trust mechanisms are used as a protection against fraudulent entities. The literature presents various trust models, in many cases considering more functional aspect of the model than its influence on the agent s reasoning cycle. According to the agent s perspective, a trust model is like a  black box . The goal of this work is to propose an agent model where trust is part of its reasoning. The proposed model, inspired by BDI, is defined as a multi-context system and makes use of a computational model of emotions aiming to link the subjectivity of the agent s experiences with the definition of trust.
4

Otimização de atraso pós-posicionamento explorando ramos não-críticos de árvores de Steiner

Guth, Chrystian de Sousa January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-05-24T17:58:43Z (GMT). No. of bitstreams: 1 339455.pdf: 5279369 bytes, checksum: 96ea890614cb0e72b6dc8fa5c7f00442 (MD5) Previous issue date: 2016 / O crescente impacto das interconexões no desempenho dos circuitos aumentou a importância do projeto físico na última década. No contexto das tecnologias contemporâneas, é imprescindível se considerar informações de interconexões nas estimativas de atraso, para que otimizações no projeto físico não invalidem otimizações de desempenho realizadas durante a síntese lógica. Uma das técnicas de otimização utilizadas durante o projeto físico é o posicionamento guiado por atraso (TDP: timing-driven placement). Dado um posicionamento inicial do circuito, TDP move um número limitado de células com o objetivo de reduzir (ou mesmo corrigir, se possível) as violações de atraso crítico do circuito. O TDP pode ser realizado de maneira global ou incremental. Este trabalho propõe e avalia uma técnica de TDP incremental que reposiciona um subconjunto de células a fim de otimizar o atraso referente às interconexões mais críticas do circuito tentando, ao mesmo tempo, preservar a qualidade do posicionamento inicial. A técnica modela explicitamente as interconexões com árvores de Steiner, as quais são capazes de capturar informações sobre a topologia do roteamento final. Aplicada em circuitos industriais previamente otimizados, a técnica proposta proporcionou reduções médias de violações de atraso de 34% a 62%, considerando as restrições de deslocamento short e long, respectivamente.<br> / Abstract : The growing impact of interconnections on circuit performance has increased the importance of physical design in the last decade. In the context of the contemporary technologies, it is essential that circuit delay estimates consider interconnect information to avoid that physical synthesis optimizations invalidate upstream optimizations. Timing-driven placement (TDP) is one of the optimization techniques used during physical synthesis. Given an initial circuit placement, TDP moves a limited number of cells targeting at reducing (or even correcting, if possible) the circuit timing violations. TDP can be performed in a global fashion or incrementally. This work proposes and evaluates an incremental TDP technique that moves a subset of cells to optimize the delay of the most critical interconnections in the circuit, while trying to preserve the initial placement quality. The technique explicitly models the interconnections as Steiner trees, which are able to capture information on the interconnection topologies in the final routing. The proposed technique was applied on previously optimized industrial circuits having produced average reductions of 34% and 62% in timing violations, concerning short and long maximum displacement restrictions, respectively.
5

SQLToKeyNoSQL

Schreiner, Geomar André January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-05-24T17:56:56Z (GMT). No. of bitstreams: 1 339451.pdf: 2281831 bytes, checksum: 129da9c13a181f4ca28c9822b6e994ca (MD5) Previous issue date: 2016 / Diversas aplicações atualmente produzem e manipulam um grande volume de dados, denominados Big Data. Bancos de dados tradicionais, em particular, os Bancos de Dados Relacionais (BDRs), não são adequados ao gerenciamento de Big Data. Devido a isso, novos modelos de dados têm sido propostos para manipular grandes massas de dados, enfatizando a escalabilidade e a disponibilidade. A maioria destes modelos de dados pertence a uma nova categoria de gerenciadores de dados denominados BDs NoSQL. Entretanto, BDs NoSQL não são compatíveis, em geral, com o padrão SQL e desenvolvedores que utilizam BDRs necessitam aprender novos modelos de dados e interfaces de acesso para produzirem aplicações baseadas em Big Data. Para lidar com esta problemática, abordagens têm sido propostas para o suporte da interoperabilidade entre BDRs e BDs NoSQL. Poucas destas abordagens tem a habilidade de suportar mais que um BD alvo, sendo a maioria restrita a um BD NoSQL. Neste contexto, este trabalho propõe uma abordagem para acesso via SQL para dados armazenados em um SGBD NoSQL baseado em Chave de acesso (chave-valor, orientado a documentos ou orientado a colunas). Para isso, é proposto um modelo canônico hierárquico intermediário para o qual é traduzido o modelo Relacional. Este modelo hierárquico pode ser traduzido para modelos de dados NoSQL orientado a colunas, orientado a documentos ou chave-valor. A tradução das instruções SQL é feita para um conjunto intermediário de métodos baseado na API REST, que são traduzidos para a linguagem de acesso dos BDs NoSQL. Além disso, a abordagem possibilita o processamento de junções que não são suportadas pelos BDs NoSQL. Experimentos demostram que a solução proposta é promissora, possuindo um overhead não proibitivo e sendo competitiva com ferramentas existentes.<br> / Abstract : A lot of applications produce and manipulate today a large volume of data, the so-called Big Data. Traditional databases, like relational databases (RDB), are not suitable to Big Data management. In order to deal with this problem, a new category of DB has been proposed, been most of them called NoSQL DB. NoSQL DB have different data models, as well as different access methods which are not usually compatible with the RDB SQL standard. In this context, approaches have been proposed for providing mapping of RDB schemata and operations to equivalent ones in NoSQL DB to deal with large relational data sets in the cloud, focusing on scalability and availability. However, these approaches map relational DB only to a single NoSQL data model and, sometimes, to a specific NoSQL DB product. This work presents SQLToKeyNoSQL, a layer able to translate, in a transparent way, RDB schemata as well as SQL instructions to equivalent schemata and access methods for key-oriented NoSQL DB, i.e., databases based on document-oriented, key-value and column-oriented data models. We propose a hierarchical data model that abstracts the key-oriented NoSQL data models, and use it as an intermediate data model for mapping the relational data model to these NoSQL data models. Besides, we propose the translation of a subset of SQL instructions to an intermediate set of access methods based on the REST API, which are further translated, in a simple way, to the access methods of the key-oriented NoSQL DB. Our solution also supports join queries, which is not a NoSQL DB capability. An experimental evaluation demonstrates that our approach is promising, since the introduced overhead with our layer is not prohibitive.
6

Modelo de seleção dinâmica de objetos de aprendizagem baseado em agentes

Amorim Júnior, João de January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2016-05-24T17:32:51Z (GMT). No. of bitstreams: 1 338992.pdf: 3630212 bytes, checksum: 05ac0f6c479f887cbef0f6c95d7ea050 (MD5) Previous issue date: 2015 / Este trabalho descreve um modelo que possibilita o oferecimento de experiências de aprendizagem na educação on-line, baseado no paradigma de Sistemas Multiagente (SMA), com o intuito de facilitar ouso de Objetos de Aprendizagem (OA) de forma adaptativa em sistemas de gerenciamento de aprendizagem (LMS), bem como de favorecer o reuso de materiais instrucionais que sigam padrões de referência. O modelo proposto estende o conceito de Objetos Inteligentes de Aprendizagem (OIA), através da utilização de uma arquitetura de agentes BDI (Belief, Desire, Intention), sendo capaz de se comunicar com os elementos que constituem o OA, de acordo com um padrão de empacotamento e sequenciamento de objetos. O modelo teórico proposto possibilita a seleção dinâmica de recursos instrucionais com base em informações do LMS, dos metadados do OA,e do desempenho obtido pelo estudante durante a interação com o objeto. Esses elementos do modelo de dados são usados no processo de raciocínio dos agentes, possibilitando o desenvolvimento de experiências de aprendizagem aprimoradas, e com adaptatividade dinâmica. Além disso, a integração com um LMS favorece o reuso de recursos educacionais que são desenvolvidos segundo padrões de referência, e que podem ficar acessíveis ao processo de adaptação automaticamente, logo que forem incluídos no repositório de objetos, sem a necessidade de reconfigurar a estrutura do curso. Para instanciar o modelo teórico, foi desenvolvido um protótipo compatível com objetos de aprendizagem segundo o padrão de integração SCORM e cujos metadados sigam o padrão IEEE-LOM. Este protótipo integra o ambiente de agentes (denominado ILOMAS) ao LMS Moodle, permitindo o acesso aos OIA de forma integrada a cursos reais de instituições que se utilizem da plataforma Moodle. O protótipo foi desenvolvido com base em um subconjunto do modelo teórico, com o intuito de permitir a validação do sistema proposto, do ponto de vista computacional, através de simulações. Conforme verificado na avaliação deste protótipo, obteve-se adaptatividade e reuso. Por fim, apontou-se possibilidades de evolução do modelo, principalmente com a integração à busca semântica de objetos de aprendizagem com base em ontologias.<br> / Abstract : This work describes a model that enables the offering of learning experiences in online education, based on the paradigm of Multi-Agent Systems (MAS), in order to facilitate the use of Learning Objects (LO) adaptively in learning management systems (LMS) as well as to encourage the reuse of instructional materials that follow standards. The proposed model extends the concept of intelligent learning objects (ILO), by using a BDI agents' architecture (Belief, Desire, Intention), being able to communicate with the LO's elements, according to apackaging and sequencing standard. The proposed theoretical model enables dynamic selection of instructional resources based on information from the LMS, the learning object metadata, and the performance achieved by the student during the interaction with the LO. These elements of the data model are used in theagent's reasoning process, enabling the development of improved learning experiences, and dynamic adaptivity. Furthermore, the integration with an LMS promotes reuse of educational resources that are developed following reference standards, enabling their access in the adaptation process automatically, as soon as they are included in the LO repository, without having to reconfigure the course structure. To instantiate the theoretical model, it was developed a prototype compliant with SCORM standard LO and whose metadata follow the IEEE-LOM standard. This prototype integrates the agent environment (called ILOMAS) to LMS Moodle, allowing access to the ILO seamlessly to real courses of institutions that use Moodle platform. The prototype was developed based on a subset of the theoretical model, in order to enable the computational validation of the proposed system, through simulations. As verified on this prototype's evaluation, adaptivity and reuse were obtained. Finally, evolution opportunities to the model was pointed, especially with the integration of semantic search for learning objects based on ontologies.
7

KDC

Silva, Gleidson Antônio Cardoso da January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2016-05-24T17:49:37Z (GMT). No. of bitstreams: 1 338993.pdf: 1478677 bytes, checksum: dc5a2121bf6037984f65437d39bb1b87 (MD5) Previous issue date: 2015 / Classificação de documentos fornece um meio para organizar as informações, permitindo uma melhor compreensão e interpretação dos dados. A tarefa de classificar é caracterizada pela associação de rótulos de classes a documentos com o objetivo de criar agrupamentos semânticos. O aumento exponencial no número de documentos e dados digitais demanda formas mais precisas, abrangentes e eficientes para busca e organização de informações. Nesse contexto, o aprimoramento de técnicas de classificação de documentos com o uso de informação semântica é considerado essencial. Sendo assim, este trabalho propõe uma abordagem baseada em conhecimento para a classificação de documentos. A técnica utiliza termos extraídos de documentos associando-os a conceitos de uma base de conhecimento de domínio aberto. Em seguida, os conceitos são generalizados a um nível maior de abstração. Por fim, é calculado um valor de disparidade entre os conceitos generalizados e o documento, sendo o conceito de menor disparidade considerado como rótulo de classe aplicável ao documento. A aplicação da técnica proposta oferece vantagens sobre os métodos convencionais como a ausência da necessidade de treinamento, a oportunidade de atribuir uma ou múltiplas classes a um documento e a capacidade de aplicação em diferentes temas de classificação sem a necessidade de alterar o classificador.<br> / Abstract : Document classification provides a way to organize information, providing a better way to understand available data. The classification task is characterized by the association of class labels to documents, aiming to create semantic clusters. The exponential increase in the number of documents and digital data demands for more precise, comprehensive and efficient ways to search and organize information. In this context, the improvement of document classification techniques using semantic information is considered essential. Thus, this paper proposes a knowledge-based approach for the classification of documents. The technique uses terms extracted from documents in association with concepts of an open domain knowledge base. Then, the concepts are generalized to a higher level of abstraction. Finally a disparity value between generalized concepts and the document is calculated, and the best ranked concept is then considered as a class label applicable to the document. The application of the proposed technique offers advantages over conventional methods including no need for training, the choice to assign one or multiple classes to a document and the capacity to classify over different subjects without the need to change the classifier.
8

Iluminação natural e consumo energético de edificações não residenciais

Fonseca, Raphaela Walger da January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Civil, Florianópolis, 2015. / Made available in DSpace on 2016-05-24T17:53:41Z (GMT). No. of bitstreams: 1 339043.pdf: 8116643 bytes, checksum: 913e1f8bc5c82d3ee6dde4865120871c (MD5) Previous issue date: 2015 / Raras ferramentas simplificadas oferecem a possibilidade de avaliar o impacto do aproveitamento da luz natural no consumo energético de edificações de forma completa devido à dificuldade de modelar a sua dupla influência: no sistema de iluminação artificial e condicionamento de ar. Este trabalho teve por objetivo investigar as possibilidades e as limitações da aplicação de redes neurais artificiais (RNAs) para estimar o potencial energético do aproveitamento da iluminação natural em edificações não residenciais por meio da metamodelagem de suas variáveis-chave. O método adotado apresentou duas etapas: a primeira, de abordagem sistemática investigativa; e a segunda, de abordagem propositiva. Na etapa investigativa, identificou-se a necessidade de avaliar o desempenho das RNAs diante de técnicas estatísticas já estudadas, adotando-se a regressão linear multivariada (RLM), e de avaliar o potencial das RNAs para a metamodelagem das principais variáveis-chave da iluminação natural referentes: a descrição, a localização e o desempenho do edifício. Para a comparação entre a precisão dos modelos RNA e RLM, repetiu-se um estudo anterior que propôs uma equação baseada em RLM para modelar uma zona termoluminosa, propondo-se uma RNA e comparando-se a precisão das técnicas. A investigação das variáveis da descrição do edifício teve como principal norteador a verificação do potencial das RNAs para modelar variáveis que operam em diferentes escalas. A investigação das variáveis do contexto do edifício avaliou o potencial das redes para modelar o comportamento de edificações em diferentes climas. Para a investigação das variáveis de desempenho do edifício, as redes foram testadas diante de diferentes agrupamentos de variáveis de desempenho de iluminação natural e de consumo energético. Essas avaliações foram desenvolvidas conforme: a) a seleção das variáveis; b) a amostragem dos dados (direcionada ou aleatória através de Hipercubo Latino); c) a simulação energética (EnergyPlus e plug-in DIVA do programa Rhinoceros, conforme a etapa do estudo priorizasse tempo ou precisão da simulação); d) o treinamento da RNA; e e) a análise dos resultados e a definição da ação seguinte. Para a realização das simulações integradas no DIVA, propôs-se um algoritmo de parametrização desenvolvido no plug-in Grasshopper, que permite a simulação de mais de 10 milhões de casos diferentes. A metamodelagem baseou-se em uma única zona termoluminosa, partindo-se da rede mais simples que pudesse aprender e generalizar soluções. A acurácia das RNAs foi verificada através da utilização de novos modelos, com características diferentes das conhecidas pela rede. A abordagem propositiva do método dispôs um método simplificado para determinar a redução do consumo energético de edifícios devido ao aproveitamento da iluminação natural. A variável de saída da RNA foi a Densidade de Potência de Iluminação em Uso (DPU), que é ponderada pela área de zonas de iluminação natural para determinar a DPU do edifício. Para a definição da área das zonas, foram propostas equações que consideraram o dinamismo do clima. Como resultado, 799 redes foram testadas diante de 19 variáveis da descrição, 14 do contexto e 15 do desempenho do edifício. Foram simulados 12.041 casos (21.187 simulações de iluminação natural e termoenergéticas). Os resultados da etapa investigativa apontaram as RNAs como método mais preciso que a RLM, a ponto de melhorar o coeficiente de determinação de 0,62 para 0,99. Quanto à investigação das variáveis da descrição do edifício, as RNAs foram capazes de modelar a influência dos parâmetros orientação, percentual de abertura da fachada e transmissão visível com erro percentual inferior a 5%. Quanto ao contexto do edifício, os melhores resultados foram obtidos agrupando-se variáveis de localização geográfica, características térmicas e disponibilidade de luz e considerando-se cidades de diferentes hemisférios na mesma rede, num total de 11 climas. Quanto às variáveis de desempenho, as redes apresentaram maior facilidade na predição das variáveis de consumo energético isoladamente do que de medidas de iluminação natural isoladamente ou de ambos na mesma rede. Quanto à etapa propositiva, o método simplificado resultou em erros inferiores a 5% quando comparado à simulação computacional. Como conclusão geral, as RNAs apresentaram elevado potencial para serem utilizadas em métodos simplificados de iluminação natural sob o enfoque energético para diversas localidades com precisão superior à RLM. Os objetivos do trabalho foram cumpridos, visto que se obteve um panorama das potencialidades da metamodelagem da iluminação natural utilizando RNAs diante de suas principais variáveis-chave e das estruturas de RNAs mais difundidas para a representação de funções. Como principal contribuição social e prática do trabalho, destacam-se um método passível de ser aplicado em todo o território nacional e a contribuição para códigos e normas locais. Como contribuição científica e teórica, destaca-se o avanço nos estudos de aplicação de inteligência artificial para a modelagem dos fenômenos físicos dinâmicos no ambiente construído (luminoso e térmico).<br> / Abstract : Few simplified tools offer the possibility of evaluating the impact of comprehensively using daylighting on energy consumption, since it is difficult to model its dual influence: on the artificial lighting system and on air conditioning. This work aimed at investigating the possibilities and the limitations of applying artificial neural networks (ANN) to predict daylight harvesting in non-residential buildings through metamodeling its key variables. There are two stages in the adopted method: the first one used a systematic investigative approach and the second one used a purposeful approach. In the investigative stage, it was identified the necessity of evaluating the ANN performance by adopting multivariate linear regression (MLR) facing other traditional statistical techniques, and to assess the ANNs potential for metamodeling the main daylighting key variables referring to: building description, building location and building performance. In order to compare the accuracy of ANN and MLR models, a previous study that had proposed a RLM-based equation to model a luminous-thermal zone was repeated, by proposing an ANN and comparing the accuracy of the techniques. The investigation of the building description variables was mainly guided by the verification of the ANNs potential, in order to model variables that operate at different scales. The investigation of the building context variables aimed at verifying the networks potential to model the buildings behavior in different climates. In order to research the variables related to building performance, different grouping parameters connected to daylighting and energy consumption were tested. The evaluation actions were developed according to: a) variables selection; b) sampling data (directed or random by Latin Hypercube); c) energy simulation (EnergyPlus and plug-in DIVA Rhinoceros software, when the study stage prioritized time or simulation accuracy); d) ANN training and e) results analysis and next actions definition. In order to perform the integrated simulations into DIVA, a parameterization algorithm developed at the Grasshopper plug-in that allows the simulation of more than 10 million different cases was proposed. The metamodel experiments were based on interactions using only one luminous-thermal zone and it started from the simplest network that could learn and generalize solutions. The accuracy of the ANNs was verified by using new models, whose characteristics were different from the ones that were already known by the network. The purposeful approach of the method disposed a simplified process for determining the reduction of buildings energy consumption due to the daylighting harvesting. The ANN output variable was the Lighting Density Power in Use (LDPU), which is weighted by the daylit to determine the building LDPU. Aiming at computing the daylit zones area, equations that consider the weather dynamism were proposed. As a result, 799 networks were tested facing 19 building description, 14 building context and 15 building performance key variables. 12,041 cases were simulated (21,187 daylighting, thermal and energy simulations). The investigative stage results indicated that the ANNs were a more accurate method than the linear regression, since the determination coefficient improved from 0.62 to 0.99. Regarding the investigation of the building description variables, the ANNs were able to model the influence of the following parameters: orientation, window to wall ratio and visible transmission, showing a percentage error lower than 5%. Concerning the building context, the best results were obtained by grouping variables regarding: geographic location, thermal characteristics and daylight availability. It considered cities from different hemispheres in the same ANN, adding up 11 different climates. The percentage error of the best network solution was lower than 10%, thus it was higher than 30% for the test set individually. On the subject of building performance parameters, the networks showed better results when predicting the energy consumption parameters separately than when predicting daylighting parameters independently, or when both of them were in the same network. Respecting the purposeful approach stage, the simplified method error was lower than 5% when compared to the computer simulation. As a general conclusion, it can be stated that the ANN technique shows a potential for being applied to develop simplified daylighting methods in line with the energy approach for multiple locations with greater precision than the MLR. The research goals have been met, since it was possible to obtain an overview of the potential using ANNs to daylighting metamodeling facing its main key variables and the most widespread ANNs structures. The main social / practical contribution of this research is the possibility of applying the method across the country and contributing to local codes and standards. As a scientific / theoretical contribution, it can be highlighted the progress in studies on artificial intelligence application for metamodeling dynamic physical phenomena in the built environment (luminous and thermal).
9

Greft

Presser, Daniel January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-05-24T17:56:04Z (GMT). No. of bitstreams: 1 339452.pdf: 1160381 bytes, checksum: 722a35e532367f63e483a469497c4242 (MD5) Previous issue date: 2016 / Grafos são usados para modelar um grande número de problemas reais em áreas como aprendizado de máquina e mineração de dados. O crescimento das bases de dados destas áreas tem levado à criação de uma variedade de sistemas distribuídos para processamento de grafos muito grandes, dentre os quais se destaca o Pregel, da Google. Embora esses sistemas costumem ser tolerantes a faltas de parada, a literatura sugere que eles também estão suscetíveis a faltas arbitrárias acidentais. Neste trabalho é apresentado Greft, uma arquitetura para processamento distribuído de grafos de larga escala capaz de lidar com essas faltas, baseado no Graph Processing System (GPS), uma implementação de código aberto do Pregel. São apresentados também resultados experimentais do protótipo obtidos na Amazon Web Services (AWS), onde demonstra-se que este algoritmo usa o dobro de recursos do original, em vez de 3 ou 4 vezes, como é comum em modelos tolerantes a faltas Bizantinas. Com isso, seu custo torna-se aceitável para aplicações críticas que requerem esse nível de tolerância a faltas.<br> / Abstract : Graphs are used to model a large number of real problems in areas such as machine learning and data mining. The increasing dataset sizes has led to the creation of various distributed large scale graph processing systems, among which Google's Pregel stands out. Although these systems usually tolerate crash faults, literature suggests they are vulnerable to accidental arbitrary faults as well. In this dissertation we present the architecture, algorithms and a prototype of such system that can tolerate this kind of fault, based on Graph Processing System (GPS), an open source implementation of Pregel. Experimental results of the prototype in Amazon Web Services (AWS) are presented, showing that it uses twice the resources of the original implementation, instead of 3 or 4 times as usual in Byzantine fault-tolerant systems. This cost is acceptable for critical applications that require this level of fault tolerance.
10

Adaptação de hierarquias de dados conectados para análise de informação

Sacenti, Juarez Angelo Piazza January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-05-24T17:57:13Z (GMT). No. of bitstreams: 1 339454.pdf: 2256514 bytes, checksum: 03289f73726043dd181ecda93a630121 (MD5) Previous issue date: 2016 / Diversas abordagens têm sido propostas para o enriquecimento semântico de dados sobre movimento, incluindo propostas para a sua anotação com dados abertos conectados (LOD). Contudo, ainda há uma carência de soluções para modelagem dimensional de dados semanticamente anotados, visando sua análise em data warehouses. Este trabalho de pesquisa propõe um método para a geração automatizada de dimensões de análise de dados a partir da adaptação de hierarquias de recursos (sobre instâncias e conceitos) de LOD usados para anotar semanticamente tais dados. Este método extrai hierarquias de recursos de coleções de LOD por meio da exploração de relações de ordenamento parcial (como part of e is a) e adapta tais hierarquias, reduzindo o número de recursos de acordo com o número de vezes que um recurso aparece em anotações semânticas de uma dada coleção de dados. Dimensões assim produzidas são potencialmente menores que a hierarquia usada para gerá-las, pois escondem recursos com baixa frequência de uso em anotações. Isso tem potencial para propiciar ganhos de eficiência e facilidade de uso em data warehouses, entre outros benefícios. Resultados de experimentos com a adaptação de hierarquias de recursos para a análise de tweets anotados com LOD sugerem a viabilidade do método. Os resultados mostram considerável redução no número de recursos de hierarquias adaptadas a medida que se aumenta o limiar de frequência de uso de recursos em anotações semânticas.<br> / Abstract : Several approaches have been proposed to semantic enrich data about movement, including proposals to annotate it with linked open data (LOD). However, there is still a lack of solutions for multidimensional modelling semantic annotated data, in order to analyse it in data warehouses. This research work proposes a method for automated generation of data analysis dimensions from the adaptation of hierarchies of resources (about instances and concepts) of LOD used to annotate semantically such data. This method extract hierarchies of resources from LOD collections through exploration of partial ordering relations (like part of and is a) and adapt such hierarchies, reducing the number of resources according to the number of times a resource appears in semantic annotations of a particular dataset. Thus produced dimensions are potentially lower than the hierarchy used to generate them, because they hide resources having low frequency of use in annotations. This has the potential to provide efficiency gains and ease of use in data warehouses, among other benefits. Experiments results in adaptation of hierarchies of resources for the analysis of tweets annotated with LOD suggest the feasibility of the method. The results show considerable reduction of the number of adapted hierarchies' resources as it increases the threshold of frequency of use of resources in semantic annotations.

Page generated in 0.0361 seconds