• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 486
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7624
  • 2223
  • 1814
  • 1759
  • 1276
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Um processador reconfigurável com janela de instruções dinâmica e banco de registradores distribuído / A reconfigurable processor with dynamic instruction window and dis- tributed registers bank

Campos, Néliton Antônio 28 March 2016 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-09-08T16:24:04Z No. of bitstreams: 1 texto completo.pdf: 1727272 bytes, checksum: e85dcc7cf2c1c5cf2071c4ee9f3926fb (MD5) / Made available in DSpace on 2016-09-08T16:24:04Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1727272 bytes, checksum: e85dcc7cf2c1c5cf2071c4ee9f3926fb (MD5) Previous issue date: 2016-03-28 / A demanda por desempenho computacional é crescente, visto que a variedade das aplicações exige soluções com arquiteturas heterogêneas. A necessidade de conciliar alto desempenho com eficiência energética desafia os desenvolvedores, pelos quais a alternativa mais utilizada é o paralelismo. O presente trabalho é baseado nas CGRAs (Coarse-Grained Reconfigurable Architectures) e nos processadores VLIW (Very Large Instruction Word), que são arquiteturas paralelas em nível de instrução. Muitos dos processadores VLIW atuais possuem uma janela fixa de instruções, que degrada a utilização da memória. Além disso, o banco de registradores dos processadores VLIW limita o tamanho máximo da janela, afetando a exploração do paralelismo. Este trabalho apresenta uma fusão entre a CGRA e o VLIW em um único processador com janela variável de instruções e registradores distribuídos. A janela variável aproveita os possíveis espaços vazios no final das linhas de memória, melhorando a ocupação; e os registradores e interconexões da CGRA substituem o banco de registradores centralizado de alto custo. O trabalho em questão comprova a viabilidade da proposta com dois estudos de caso. Os resultados das simulações desses exemplos no compilador VEX apresentam um ganho médio de 4,61× em ocupação de memória. / The demand for compute performance is increasing, as the variety of applications requires solutions with heterogeneous architectures. The need to combine high per- formance with energy efficiency challenges developers, in which the most widely used alternative is the parallelism. This work is based on CGRAs (Coarse-Grained Recon- figurable Architectures) and VLIW (Very Large Instruction Word) processors, which are instruction-level parallel architectures. Many of the current VLIW processors have a fixed instruction window, which degrades the memory usage. Additionally, the register file of the VLIW processor limits the maximum size of the window, affecting the parallelism exploitation. This work presents a fusion of the CGRA and the VLIW in a single processor with variable instruction window and distributed registers. The variable window takes advantage from the possible empty spaces at the end of memory lines, improving the occupation; the CGRA registers and interconnections replace the high cost and centralized registers bank. The present work proves the feasibility of the proposal with two case studies. Simulation results of these examples in the VEX compiler have an average gain of 4.61× in memory occupation.
352

O uso do perfil UML Geoprofile como base para a interoperabilidade entre modelos conceituais de banco de dados geográficos / The Use of UML Geoprofile as basis for the interoperability among conceptual geographic database models

Ferreira, Thiago Bicalho 13 May 2016 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-09-12T13:05:41Z No. of bitstreams: 1 texto completo.pdf: 5324036 bytes, checksum: f3219f713b7bfbf2dcc25cf8e4a2af4a (MD5) / Made available in DSpace on 2016-09-12T13:05:41Z (GMT). No. of bitstreams: 1 texto completo.pdf: 5324036 bytes, checksum: f3219f713b7bfbf2dcc25cf8e4a2af4a (MD5) Previous issue date: 2016-05-13 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / As pesquisas na área de modelagem conceitual de banco de dados geográficos produziram diversos modelos conceituais e muitas ferramentas Computer-aided software engineering (CASE) específicas. Uma consequência de não se ter um modelo comum é a falta de interoperabilidade entre os esquemas de banco de dados geográficos. A interoperabilidade pode acontecer de forma vertical e horizontal. A interoperabilidade vertical diz respeito ao nível de abstração Model Driven Architecture (MDA) que um esquema pode assumir. Assim, um esquema conceitual Platform Independent Model (PIM) é transformado em um esquema dependente de plataforma Platform Specific Model (PSM) que é então transformado em código fonte. A interoperabilidade horizontal está ligada a possibilidade de um esquema de dados conceitual poder ser visualizado com construtores de diferentes modelos conceituais. A interoperabilidade de esquemas é importante, pois facilita a comunicação entre projetistas de diferentes equipes, possibilita a integração de diferentes projetos e o reuso de soluções já testadas e validadas. Para mostrar a interoperabilidade horizontal e vertical de esquemas é necessário utilizar um ambiente onde as características dos construtores do modelo possam ser replicadas. Características como restrições, ícones gráficos e formato da classe devem ser mantidas. O ambiente também deve oferecer recursos para mostrar de forma automatizada a interoperabilidade horizontal e vertical de esquemas. A ferramenta Enterprise Architect, através da tecnologia Model Driven Generation oferece estes recursos. Este trabalho descreve um método que mostra ser possível alcançar interoperabilidade horizontal e vertical de esquemas de dados geográficos, utilizando o perfil UML GeoProfile como modelo conceitual intermediário. Exemplos de esquemas conceituais de dados, extraídos da literatura, são transformados horizontalmente entre diferentes modelos conceituais. Para mostrar a equivalência dos esquemas, transformações verticais são realizadas, produzindo esquemas de banco de dados equivalentes no nível de código fonte. / Researches on geographic database conceptual modeling have produced several conceptual models and many specific Computer-aided software engineering (CASE) tools. One consequence of there not being a common model is the lack of interoperability among geographic database schemas. Interoperability may occur vertically or horizontally. Vertical interoperability concerns the level of Model Driven Architecture (MDA) abstraction a schema may have. Thus, a PIM (Platform-Independent Model) conceptual schema is transformed into a dependent PSM (Platform-Specific Model) schema, which is then transformed into source code. Horizontal interoperability in linked to the possibility of a conceptual data schema being visualized with constructs of different conceptual models. Schema interoperability is important since it facilitates the communication among designers from different teams and enables integration of different projects and the reuse of previously tested and validated solutions. In order to show the horizontal and vertical schema interoperability, one must use an environment where the characteristics of the model’s constructs can be replicated. Characteristics such as restrictions, graphical icons, and class format must be kept. The environment must also provide resources to automatically show the horizontal and vertical schema interoperability. The Enterprise Architect tool, through the Model Driven Generation technology, offers such resources. This study describes a method that shows it is possible to reach horizontal and vertical interoperability of geographic data schemas using UML GeoProfile as an intermediate conceptual model. Examples of conceptual data schemas, extracted from the literature, are horizontally transformed among different conceptual models. In order to show the schemas are equivalent, vertical transformations are carried out, which produce database schemas equivalent to the source code.
353

Mecanismos de previsão de perda de deadline para tratadores de eventos RTSJ

Bodemüller Junior, Rogério January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T20:53:40Z (GMT). No. of bitstreams: 1 329307.pdf: 1643347 bytes, checksum: 3de99811d39b919df26c4a225efbebf6 (MD5) Previous issue date: 2014 / Estrategias para estimar a probabilidade de deadlines firmes serem alcançados são fundamentais porque permitem a realização de ações corretivas para a melhoria do desempenho do sistema. Este tipo de estrategia permite a avaliação de sistemas de tempo real que estão em funcionamento, principalmente quando ha alguma mudança quanto ao projeto inicial, ou mesmo avaliar novos projetos para analisar se as restrições temporais foram definidas adequadamente. Nesta dissertação são apresentados dois mecanismos de previsão de perda de deadline em sistemas monoprocessados e multiprocessados de tempo real firme. O Mecanismo de Previsão de Perda de Deadline Baseado na Folga (MBF) utiliza dados sobre o comportamento das tarefas (deadline, tempo de computação e o tempo de espera na fila de prontos do processador) para calcular a folga e determinar se o deadline pode ser cumprido. O Mecanismo de Previsão de Perda de Deadline Baseado no Histórico (MBH) utiliza regressão linear e relaciona dados de um histórico de execuções passadas, que possui o tamanho da fila de prontos do processador e seu respectivo tempo de resposta, com o tamanho atual da fila de prontos do processador para calcular o tempo de resposta previsto da thread e depois definir a probabilidade dela cumprir seu deadline. Sera apresentado um modelo de tarefas para aplicações não críticas em um sistema de tempo real firme que caracteriza uma aplicação real utilizada nos testes, o cruise control. Estes testes foram feitos utilizando uma implementação em Java RTS desta aplicação em um ambiente não especialista, próximo de um ambiente de tempo real comum, com varias configurações, buscando abranger uma grande gama de cenários. Após os testes, a qualidade das previsões é avaliada utilizando as Métricas Taxa Relativa de Erro e Taxa de Previsões Corretas. Os resultados demonstram que ambos os mecanismos trazem bons resultados em ambientes com cargas baixas, medias e altas, sendo o MBF um excelente previsor para sistemas monoprocessados e o MBH mais adequado aos sistemas multiprocessados.<br> / Abstract: Strategies to estimate the probability of rm deadlines be achieved areessential because they allow the use of corrective actions to improvesystem performance. This type of strategy allows the evaluation of realtimesystems that are in operation, especially when there is any changeon the initial design, or evaluate new projects to analyze whether thetemporal constraints were appropriately settled. In this dissertation,two deadline missing prediction mechanisms for rm real-time uniprocessorand multiprocessor systems are presented. The Deadline MissingPrediction Mechanism Based on Slack (MBF) uses data of tasks's behavior(deadline, computation time and the waiting time in the processorready queue) to calculate the slack and determine whether the deadlinecan be met. The Deadline Missing Prediction Mechanism Based onHistorical Data (MBH) uses linear regression and associates data froma past execution's historical, which is the size of the processor readyqueue and its associated response time, with the current size of processorready queue to calculate the predicted response time of the threadand then dene the probability of meeting its deadline. A model of tasksfor non-critical applications in a rm real-time system which characterizesa real application, similar to the cruise control, will be usedin the tests. These tests were done using an implementation in JavaRTS applied to a non-specialist environment as a common real-timeenvironment with various congurations scenarios. The quality of theforecasts is evaluated using the metrics Relative Error Rate and CorrectPrediction Rate. The results indicate that both mechanisms improve theperformance in environments with high, medium and low system loadwhereas the MBF being an adequate predictor for uniprocessor systemsand the MBH best suited to multiprocessor systems.
354

Um middleware para compartilhamento de documentos sigilosos em nuvens computacionais

Souza, Rick Lopes de January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T21:07:47Z (GMT). No. of bitstreams: 1 329350.pdf: 2762253 bytes, checksum: 5575422b8e2d5f52953cf89cfefd4feb (MD5) Previous issue date: 2014 / Diversas empresas tem investido no uso da tecnologia da computação em nuvem para o armazenamento de documentos digitais e aplicações com o intuito de diminuir despesas com manutenção e infraestruturas físicas. Entretanto, o uso da computação em nuvem traz consigo vulnerabilidades que podem comprometer a sua ampla adoção no mercado. Documentos sigilosos normalmente são armazenados sem uma real preocupação com a segurança e, portanto, correm o risco de serem divulgados por indivíduos que tenham acesso físico ou administrativo no provedor de nuvem. O ciframento dos dados por meio da criptografia reduz o risco de determinadas ações, no entanto, aumenta a complexidade do sistema. Uma parte fundamental de tal sistema é o gerenciamento das chaves criptográficas. Mesmo havendo um sistema complexo para cifragem dos dados, caso o gerenciamento das chaves criptográficas seja falho, um indivíduo conseguirá realizar atos que podem comprometer a integridade e confidencialidade desses documentos. No entanto, desenvolver esse tipo de aplicação envolvendo computação em nuvem e gerenciamento de chaves criptográficas requer a integração e consideração de múltiplos aspectos de segurança e interoperabilidade. No caso de provedores de nuvem pública para armazenamento, a interoperabilidade entre diferentes provedores de nuvens para o armazenamento e controle de acesso é um desafio e deve ser transparente para o usuário. Isso também se aplica no gerenciamento de chaves criptográficas, um processo complexo e que necessita de segurança para garantir a confidencialidade de documentos. Para contornar esses desafios, esse trabalho tem como principal objetivo propor uma arquitetura de middleware para garantir o compartilhamento seguro de documentos sigilosos em nuvem utilizando provedores de nuvens públicas para o armazenamento dos dados e nuvens híbridas para o gerenciamento de chaves criptográficas. Este trabalho tem como principais características: o uso da criptografia baseada em identidade, uso de nuvens híbridas, gerenciamento de chaves criptográficas simplificado, garantia de segurança ponto aponto e utilização de módulos de segurança criptográficos.<br> / Abstract: Several companies have invested in the use of cloud computing technology for the storage of digital documents and applications with the aim of reducing costs maintaining physical infrastructure. However, the use of cloud computing brings with it vulnerabilities that can compromise its widespread adoption in the market. Classified documents are normally stored without a real concern for security, and therefore have the risk of having this information disclosed by individuals who have physical or administrative access to the cloud provider. The act of hide data through encryption reduces the risk of certain actions, however, increases the complexity of the system. A key part of such a system is the management of cryptographic keys. Even with a complex system for data encryption, if the cryptographic keys management is flawed, an individual can accomplish acts that may compromise the integrity and confidentiality of certain documents. However, developing such applications involving cloud computing and cryptographic key management requires the integration and consideration of multiple aspects of security and interoperability. In the case of public cloud storage providers, interoperability between different cloud providers for storage and access control is a challenge and should be transparent to the user. As in the management of cryptographic keys, a complex process that requires security to ensure the confidentiality of documents, which should keep these processes process transparent to users. To circumvent these challenges, this paper aims to propose a middleware architecture to ensure secure sharing of private documents using public cloud providers for data storage and hybrid clouds for managing cryptographic keys. This work has as main features: the use of identity-based encryption, use of hybrid clouds, simplified management of cryptographic keys, security assurance and peer use of cryptographic security modules.
355

Um modelo para avaliação dinâmica de risco utilizando ontologia

Marinho, Roberto January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2015-03-18T21:04:56Z (GMT). No. of bitstreams: 1 332301.pdf: 1429721 bytes, checksum: 9940245dc8074c7e69cc3b8f776ce720 (MD5) Previous issue date: 2014 / Em computação, o controle de acesso é motivado pela necessidade de divulgar o acesso à informação, recursos e serviços somente para entidades autorizadas. Dentre os modelos de controle de acesso atuais, o RAdAC destaca-se por possibilitar um controle dinâmico e situacional na avaliação do acesso, baseando-se no risco de acesso para aceitar ou negar requisições. Neste contexto, o presente trabalho tem como objetivo oferecer um modelo para avaliação dinâmica de risco a partir do modelo RAdAC, amparando-se no uso de ontologia para realização do cálculo de risco. Na proposta apresentada, a composição do risco total relacionado a uma requisição de acesso é composta pelos riscos de contexto, riscos considerando confidencialidade, integridade e disponibilidade das ações, e do risco considerando o histórico do sujeito.A partir do mapeamento das diversas variáveis envolvidas no cálculo de risco de contexto em sentenças de uma ontologia, o modelo busca inferir dinamicamente o risco de contexto no acesso a um determinado dado, baseando-se nos fatores de risco disponíveis e seus determinados pesos.<br> / Abstract : In computing, access control is motivated by the need to promote access to information, resources and services only to authorized entities. Among the existing access control models, RAdAC stands out by allowing a dynamic and situational control in the evaluation of access, relying on the risk assessment to accept or deny requests.This work aims to provide a model for dynamic risk assessment from the RAdAC model, supported by the use of ontologies to perform the calculation of risk. In the proposal presented here, the composition of the total risk associated to an access request comprises the context risk, the risk considering confidentiality, integrity and availability of the actions, and the risk considering the history of the subject.From the mapping of the different variables involved in the calculation of context risk in sentences of an ontology, the model seeks to dynamically infer the context risk during the access to a specific data, based on the available risk factors and their weights.
356

Modelo de gerenciamento da infraestrutura de rede para otimização de nuvem verde

Villarreal, Sergio Roberto January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2015-04-29T21:02:09Z (GMT). No. of bitstreams: 1 333050.pdf: 1755196 bytes, checksum: 5cc4f7adb9d9042757ae2da8541ed3f6 (MD5) Previous issue date: 2014 / Os conceitos propostos pela TI Verde têm mudado as prioridades na concepção dos sistemas de informação e sua infraestrutura, acrescentando aos tradicionais requisitos de desempenho e custo, a necessidade de eficiência no consumo de energia. A abordagem de Computação em Nuvem Verde baseia-se nos conceitos de Computação em Nuvem e TI Verde com o objetivo de oferecer um ambiente computacional flexível e eficiente, porém suas estratégias não têm dado muita atenção para o consumo dos equipamentos de rede. Enquanto a Green Networking tem proposto princípios e técnicas que estão sendo padronizados e implementados nos novos equipamentos de rede, existe nos data centers uma grande quantidade de equipamentos legados sem esses recursos. Neste trabalho, se demonstra que é possível aperfeiçoar a abordagem de nuvem verde e reduzir significativamente o consumo de energia elétrica dos data centers mediante a aplicação de um modelo de gerenciamento dos equipamentos de rede baseado em regras simples que tornam o consumo dos mesmos aproximadamente proporcional ao tráfego. A metodologia utilizada consiste em pesquisa bibliográfica; definição do modelo através de expressões matemáticas e diagramas UML; validação do modelo mediante um estudo de caso aplicado de forma analítica; desenvolvimento de extensões ao simulador CloudSim para suportar o modelo e a realização de simulações para validar seu impacto em diferentes cenários.
357

O Problema de ordenação de rodadas e problemas de otimização associados / The rounds ordering problem and optimization problems associated

Farias, Pablo Mayckon Silva January 2013 (has links)
FARIAS, P. M. S. O Problema de ordenação de rodadas e problemas de otimização associados. 2014. 127 f. (Doutorado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T18:15:16Z No. of bitstreams: 1 2014_tese_pmsfarias.pdf: 1600516 bytes, checksum: afaccc349ce6f2d065494cd2601913c0 (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-09-23T16:25:51Z (GMT) No. of bitstreams: 1 2014_tese_pmsfarias.pdf: 1600516 bytes, checksum: afaccc349ce6f2d065494cd2601913c0 (MD5) / Made available in DSpace on 2015-09-23T16:25:51Z (GMT). No. of bitstreams: 1 2014_tese_pmsfarias.pdf: 1600516 bytes, checksum: afaccc349ce6f2d065494cd2601913c0 (MD5) Previous issue date: 2013 / This thesis is composed of three well-delineated parts. In the first part, we introduce the round sorting problem (RSP), which models the minimization of the usage of buffer for the temporary storage of packets to be forwarded in TDMA communications of wireless mesh networks. We present a complete foundation for the definition of the RSP, and show that the problem is NP-hard for two theoretical models of radio interference known in the literature. A mixed integer programming formulation is also presented for a purely combinatorial and applicationindependent generalization of the RSP, the SMSP problem. In the second part of the work, we deal with problems about queries on insertions into sequences of numbers. Our main result in this part of the thesis is to show how, after a preprocessing step which runs in linear time on a sequence A of arbitrary real numbers, it is possible to compute in constant time the greatest sum of a (circular or not) contiguous subsequence of the sequence which results from the insertion of a given real number x into a given position p of A. In the third part of the thesis, we use the query algorithms from the second part to obtain an efficient implementation of the GRASP metaheuristic applied to the SMSP problem. An experimental analysis of this implementation is described, in which the values of the solutions returned by the metaheuristic are compared with those of the solutions obtained through the mixed integer formulation, in the case of small instances, and with the available lower bound, in the case of larger instances. / Esta tese é composta de três partes bem-delineadas. Na primeira parte, nós introduzimos o "problema de ordenação de rodadas" (POR), que modela a minimização do uso de memória ("buffer") para o armazenamento temporário de pacotes a serem repassados em comunicações TDMA de redes de rádio em malha. Nós apresentamos uma fundamentação completa para a definição do POR, e mostramos que o problema é NP-difícil para dois modelos teóricos de interferência de rádio conhecidos na literatura. Uma formulação de programação inteira mista é também apresentada para uma generalização puramente combinatória e independente de aplicação do POR, o problema SMSP. Na segunda parte do trabalho, nós abordamos problemas de consulta sobre inserções em sequências de números. O nosso principal resultado nesta parte da tese é mostrar como, após um passo de pré-processamento que executa em tempo linear sobre uma sequência "A" de números reais quaisquer, é possível computar em tempo constante a maior soma de uma subsequência contígua (circular ou não) da sequência que resulta da inserção de dado um número real "x" numa dada posição "p" de "A". Na terceira parte da tese, nós utilizamos os algoritmos de consulta da segunda parte para obter uma implementação eficiente da meta-heurística GRASP aplicada ao problema SMSP. Uma análise experimental dessa implementação é descrita, onde os valores das soluções retornadas pela meta-heurística são comparados com os das soluções obtidas pela formulação inteira mista, no caso de instâncias pequenas, e com o limite inferior disponível, no caso de instâncias maiores.
358

Uma técnica de decomposição a priori para geração paralela de malhas bidimensionais / A priori decomposition technique for parallel generation of two-dimensional meshes

Teixeira, Daniel Nascimento January 2014 (has links)
TEIXEIRA, D. N. Uma técnica de decomposição a priori para geração paralela de malhas bidimensionais. 2014. 95 f. Dissertação (Mestrado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T18:25:13Z No. of bitstreams: 1 2014_dis_dnteixeira.pdf: 17919971 bytes, checksum: 092ad12b33cf64a31552e6a839a5a5bc (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-09-23T16:26:52Z (GMT) No. of bitstreams: 1 2014_dis_dnteixeira.pdf: 17919971 bytes, checksum: 092ad12b33cf64a31552e6a839a5a5bc (MD5) / Made available in DSpace on 2015-09-23T16:26:52Z (GMT). No. of bitstreams: 1 2014_dis_dnteixeira.pdf: 17919971 bytes, checksum: 092ad12b33cf64a31552e6a839a5a5bc (MD5) Previous issue date: 2014 / This work describes a technique of two-dimensional domain decomposition for parallel mesh generation. This technique works for both distributed and shared memory and has the freedom to use any data structure that manages rectangular regions parallel to the axes to decompose the domain given as input, such as a quaternary tree (quadtree) or a binary space decomposition (bsp), for example. Any process of mesh generation that respects the prerequisites established can be used in the subdomains created, for instance, Delaunay or Advancing Front, among others. This technique is called a priori because the mesh on the interface of the subdomains is generated prior to the their internal meshes. The load estimation for each sub-domain in this work is performed with the aid of a refined quadtree, whose level of refinement guides the creation of edges that are defined from the bounderies of only inner cells. This way of estimate load produces results that accurately represent the number of elements to be generated in each subdomain. That contributes to a good partitioning of the domain, making the mesh generation in parallel be significantly faster than the serial generation. Furthermore, the quality of the generated mesh in parallel is qualitatively equivalent to that generated serially within acceptable limits. / Este trabalho descreve uma técnica de decomposição de domínios bidimensionais para geração em paralelo de malhas. Esta técnica funciona tanto para memória distribuída quanto compartilhada, além de permitir que se utilize qualquer estrutura de dados que gere regiões quadrangulares paralelas aos eixos para decompor o domínio dado como entrada. Pode se utilizar por exemplo, uma árvore quaternária (quadtree) ou uma partição binária do espaço (bsp). Além disso, qualquer processo de geração de malha que respeite os pré-requisitos estabelecidos pode ser empregado nos subdomínios criados, como as técnicas de Delaunay ou Avanço de Fronteira, dentre outras. A técnica proposta é dita a priori porque a malha de interface entre os subdomínios é gerada antes das suas malhas internas. A estimativa de carga de processamento associada a cada subdomínio é feita nesse trabalho com a ajuda de uma quadtree refinada, cujo nível de refinamento orienta a criação das arestas que são definidas a partir da discretização das fronteiras das células internas. Essa maneira de estimar carga produz resultados que representam, com boa precisão, o número de elementos a serem gerados em cada subdomínio. Isso contribui para um bom particionamento do domínio, fazendo com que a geração de malha em paralelo seja significativamente mais rápida do que a geração serial. Além disso, a qualidade da malha gerada em paralelo é qualitativamente equivalente àquela gerada serialmente, dentro de limites aceitáveis.
359

Comparison of neural network models applied to size prediction of atmospheric particles based on their two-dimensional light scattering patterns

Priori, Daniel January 2017 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2017. / Made available in DSpace on 2017-11-21T03:19:07Z (GMT). No. of bitstreams: 1 348590.pdf: 15855456 bytes, checksum: bd421609cb55782e75a869acf96bf852 (MD5) Previous issue date: 2017 / A obtenção do tamanho projetado de partículas atmosféricas prismáticas é de imensa importância em diversos aspectos da vida prática. Partículas expelidas por erupções vulcânicas podem por em risco a aviação civil e militar. Cristais de gelo presentes em nuvens, dependendo de seu tamanho e formato, alteram as propriedades radiantes das nuvens que podem, por sua vez, afetar significativamente os modelos climáticos. Uma forma indireta de se obter informações sobre as partículas prismáticas é através da utilização de instrumentos que registram padrões bidimensionais de dispersão de luz. Estas imagens podem ser utilizadas para caracterizar uma partícula cristalina, fornecendo informações sobre tamanho, razão de proporção, forma, concavidade e rugosidade. Neste trabalho procurou-se aplicar técnicas de Aprendizado de Máquina, em especial alguns modelos de redes neurais artificiais e técnicas de análise de dados, de forma a encontrar um modelo que apresente um desempenho satisfatório na tarefa de predição do tamanho projetado das partículas cristalinas. Os modelos de redes neurais testados foram do tipo Feed Forward Multi-Layer Perceptron com regularização Bayesiana, as redes neurais do tipo Função de Base Radial, e as redes Deep Learning do tipo Autoencoders, a qual também foi aplicada com o propósito de redução dimensional. Também foram testadas as técnicas de análise de dados de redução dimensional utilizando Análise de Componentes Principais e invariância à rotação das imagens através da Transformada Rápida de Fourier. Os modelos apresentados foram aplicados a uma série de imagens e seus resultados comparados e analisados. O modelo desenvolvido que utiliza conceitos de Deep Learning com técnicas de Autoencoder foi aquele que obteve os melhores resultados (performance de 0.9914), em especial na predição de tamanho projetado para as partículas menores, as quais tiveram maiores dificuldades de predição nos outros modelos propostos nesse trabalho. / Abstract : Obtaining the projected size of atmospheric prismatic particles is of immense importance in many aspects of practical life. Particles expelled by volcanic eruptions may threat to civil and military aviation. Ice crystals present in clouds, depending on their size and shape, can modify the radiant properties of clouds that can significantly affect the climate models. An indirect way of obtaining information on prismatic particles is through the use of instruments that record two-dimensional light scattering patterns. These images can be used to characterize a crystalline particle, providing information on size, aspect ratio, shape, concavity and roughness. In this work we tried to apply Machine Learning techniques, especially some models of artificial neural networks and techniques of data analysis, in order to find a model that presents a satisfactory performance in the task of predicting the projected size of the crystalline particles. The models of neural networks tested were Feed Forward Multi-Layer Perceptron neural network with Bayesian regularization, Radial Basis Function neural network and Deep Learning network with Autoencoders, which was applied for dimensional reduction purpose as well. We also tested techniques of data dimensional reduction such as Principal Component Analysis and techniques for image rotation invariance such as the Fast Fourier Transform. The presented models were applied to a series of images and their results were compared and analysed. The developed model which used concepts of Deep Learning with techniques of Autoencoder was the one that obtained the best results (0.9914 of performance), and especially in the prediction of projected size of the smaller particles, which had greater difficulties of prediction when using the other models proposed in this work.
360

Tangram: uma ferramenta de apoio à verificação formal de sistemas de tempo real baseados em componentes

Muniz, André Luís Nunes 30 October 2009 (has links)
Submitted by LIVIA FREITAS (livia.freitas@ufba.br) on 2016-01-07T15:22:21Z No. of bitstreams: 1 Dissertação-André-Muniz.pdf: 3386047 bytes, checksum: b3c92a5e3dbc8813fb07b262694fd7f0 (MD5) / Approved for entry into archive by LIVIA FREITAS (livia.freitas@ufba.br) on 2016-01-14T17:47:44Z (GMT) No. of bitstreams: 1 Dissertação-André-Muniz.pdf: 3386047 bytes, checksum: b3c92a5e3dbc8813fb07b262694fd7f0 (MD5) / Made available in DSpace on 2016-01-14T17:47:44Z (GMT). No. of bitstreams: 1 Dissertação-André-Muniz.pdf: 3386047 bytes, checksum: b3c92a5e3dbc8813fb07b262694fd7f0 (MD5) / Sistemas computacionais são utilizados atualmente em aplicações consideradas criticas e com alto grau de complexidade, como e o exemplo da automação industrial, controle de navegação em aeronaves, equipamentos médicos, entre outros. Com o intuito de lidar com esta complexidade e, ao mesmo tempo, dar garantias de confiabilidade, novas abordagens de desenvolvimento e validação de software t^em sido empregadas neste contexto. No que tange os chamados sistemas de tempo real, nos quais a correção do sistema depende do cumprimento de suas restrições temporais, duas abordagens vem ganhando muita atenção nos últimos anos, o desenvolvimento baseado em componentes, ou CBD (Component-Based Development), e os métodos formais de verificação de software, com atenção especial para a verificação de modelos (Model-Checking), que esta entre as técnicas formais mais utilizadas na industria e na academia. Entretanto, existem poucas abordagens propostas no sentido de aplicar a verificacao de modelos a sistemas de tempo real críticos baseados em componentes. Um dos principais desa os nesta área e a falta de abordagens/ferramentas que deem suporte a uma fácil integração dos métodos formais ao processo de desenvolvimento baseado em componentes. Isto e causado muitas vezes pela falta de compatibilidade entre as abordagens atuais de verificação formal e os diversos modelos de componentes existentes no mercado. Diante disto, este trabalho propõe uma abordagem para a integração da verificação de modelos ao processo de desenvolvimento baseado em componentes para sistemas de tempo real, através de uma tradução automática de modelos semi-formais de sistemas baseados em componentes para modelos formais passiveis de verificação. A linguagem de modelagem considerada neste trabalho e a UML (Uni ed Modeling Language), a qual ja e um padrão em termos de especificação de sistemas, sendo largamente utilizada na industria e na academia, para diversos tipos de aplicação e abordagens de desenvolvimento. Os modelos formais gerados pela tradução são autômatos temporizados do verificador de modelos UPPAAL, o qual e um verificador de modelos voltado para sistemas de tempo real. Para dar suporte a abordagem deste trabalho, foi desenvolvida uma ferramenta chamada TANGRAM (Tool for Analysis of Diagrams), a qual e capaz de traduzir diagramas da UML em automatos temporizados. Um estudo de caso da utilizacao de TANGRAM foi realizado e e apresentado neste trabalho.

Page generated in 0.0458 seconds