• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 486
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7624
  • 2223
  • 1814
  • 1759
  • 1276
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Um método para construir intervalos de predição sensível ao ruído em redes neurais

Neves, Cícero Augusto Magalhães da Silva 24 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2009. / Made available in DSpace on 2012-10-24T09:26:05Z (GMT). No. of bitstreams: 1 275533.pdf: 1005019 bytes, checksum: c0f34ed360b28b84cefee8ff97365a04 (MD5) / Devido a sua grande capacidade representacional, as Redes Neurais Artificiais (RNAs) têm sido largamente utilizadas como aproximadores universais de funções na construção de modelos preditivos não-lineares, inclusive em aplicações da indústria petrolífera. Contudo, devido à natureza estocástica do treinamento das RNAs, indicadores de qualidade e confiabilidade para as saídas destes modelos, como os intervalos de predição, são extremamente necessários e desempenham um papel importante em aplicações reais. Muitas das técnicas adotadas para o cálculo dos intervalos de predição estabelecem uma série de restrições que devem ser atendidas pelos dados amostrais usados para treinar a RNA. Uma dessas restrições impõe que a variância dos resíduos seja constante, fato que nem sempre ocorre em aplicações reais, onde a taxa de ruído existente pode variar como função dos dados de entrada, fazendo com que a confiabilidade calculada pelos métodos tradicionais não seja condizente com a real precisão da rede neural. Nesta dissertação, uma extensão para um método de cálculo de intervalos de predição para redes neurais baseado na teoria da regressão não-linear é apresentada. A idéia principal do método proposto consiste em utilizar técnicas de agrupamento para estimar a variância dos resíduos em função do vetor de entrada apresentado à rede e incorporar essa estimativa ao cálculo dos intervalos de predição. Os resultados dos experimentos realizados mostram que tal abordagem pode gerar intervalos de predição com uma melhor representação da precisão das respostas das RNAs. / Due to their large representational capacity, Artificial Neural Networks (ANNs) have been widely used as universal approximators of functions in the construction of nonlinear predictive models, including oil industry applications. However, due to the stochastic nature of the ANN training, indicators of quality and reliability to the outputs of these models, such as the prediction intervals, are extremely necessary and play an important role in real applications. Many of the techniques adopted to calculate the prediction intervals impose a set of constraints that must be respected by the data sample used to train the ANN. One of these restrictions requires that the variance of the residuals must be constant, a fact that does not always occur in real applications, where the existent noise rate may vary as a function of input data, making the reliability calculated by traditional methods become not suitable with the actual accuracy of the neural network. In this work, an extension to a method for calculating prediction intervals for neural networks, based on the theory of nonlinear regression, is presented. The main idea of the proposed method is to estimate an input dependent variance of the residuals using clustering techniques and incorporate this estimate to the computation of the prediction intervals. The results of the performed experiments show that this approach can lead to prediction intervals which better represent the accuracy of the ANNs outputs.
342

Sistema neural para previsão de tempo de perfuração de poços de petróleo

Coelho, Dennis Kerr January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T01:33:21Z (GMT). No. of bitstreams: 1 222388.pdf: 1038014 bytes, checksum: 763dd8d05c90466a4a6c7ebff9864966 (MD5) / Esta dissertação tem como objetivo mostrar como a abordagem conexionista pode ser utilizada na avaliação e previsão do tempo total em operações de perfuração e completação de poços de petróleo em águas profundas. Os valores dos parâmetros utilizados para estimar o tempo total gasto da operação realizada no poço foram retirados de um banco de dados históricos de uma companhia petrolífera. As correlações e as características destes parâmetros foram detectadas utilizando-se de uma rede neural competitiva conectada a uma rede neural direta que foi treinada para estimar a média, o desvio padrão e o tempo total gasto na operação realizada no poço. São apresentados os experimentos realizados para validação do modelo e os resultados são utilizados para avaliar o desempenho e validade da proposta. Uma das vantagens da metodologia proposta, está no fato de ser uma ferramenta simples e prática para obtenção de uma estimativa do tempo total de uma operação realizada sobre um poço de petróleo baseado em parâmetros geométricos e tecnológicos, sem a necessidade de especificar todas as sub-operações de perfuração e completação como acontece nos métodos tradicionais de analise de risco.
343

Aperfeiçoamento de algoritmo genético para seleção de variáveis de entrada para rede neural para previsão de carga elétrica ativa de curto prazo

Bet, Sabrina January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2013-07-16T01:36:59Z (GMT). No. of bitstreams: 1 221624.pdf: 573400 bytes, checksum: c561ffacb979f7ccbb5aea423ab15879 (MD5) / Este trabalho faz parte do Projeto PCarga, que tem como objetivo o desenvolvimento de um sistema previsor de carga elétrica ativa de curto prazo. O modelo, proposto por Oliveira (2004), visa a previsão de meia hora a frente em uma janela de uma semana, com a utilização de uma estrutura inteligente e adaptativa que se ajusta às características específicas de cada microrregião de consumo de energia elétrica e necessita de um baixo nível de intervenção humana. O modelo possui um modelador evolutivo que opera através de algoritmos genéticos e é responsável pela otimização do vetor das variáveis de entrada relevantes para a rede neural do sistema previsor. A pesquisa aqui apresentada envolve a otimização deste algoritmo genético na tentativa de reduzir o seu tempo de convergência. Para tanto, foi realizado um trabalho envolvendo duas hipóteses. A primeira hipótese consiste em criar uma função de mutação simultânea em grupos específicos de variáveis, visando fazer com que o algoritmo tenha uma convergência mais rápida quando comparado ao método de mutação individual. Esta hipótese foi confirmada através de uma série de experimentos. A segunda hipótese trabalha com a idéia de redução do tamanho do cromossomo do algoritmo genético, através da eliminação de variáveis de deslocamento redundantes (valores absolutos e derivados). Neste caso, os experimentos realizados comprovaram a hipótese contrária, o que significa que a combinação de valores absolutos e derivados, ao invés da utilização de apenas um tipo destes valores, é fundamental para a boa qualidade das previsões da rede neural.
344

Uma técnica de recuperação adaptativa de obras em bibliotecas digitais baseada no perfil do usuário

Penedo, Sérgio Murilo January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T01:41:00Z (GMT). No. of bitstreams: 1 221373.pdf: 3640722 bytes, checksum: 70ee32b689c63958f0f78e1493538779 (MD5) / As bibliotecas digitais oferecem um modo eficiente de busca ao acervo graças à indexação de seu conteúdo. Apesar disto, caso o acervo seja grande, mecanismos tradicionais de busca podem não ser eficientes em recuperar informação mais pertinente às necessidades do usuário. O conceito de Hiperdocumento Adaptativo pode ser adicionado às bibliotecas digitais de modo a considerar o interesse do usuário na busca de informações, representando as suas necessidades de informação através de uma estrutura bem definida, denominada de perfil. Esta Dissertação tem como proposta aplicar os conceitos de hiperdocumento adaptativo às bibliotecas digitais, para que o resultado das consultas sejam apresentados de maneira organizada levando em conta o perfil do usuário da biblioteca, visando facilitar a identificação dos documentos relevantes no conjunto de documentos da Biblioteca. É realizado o agrupamento dos documentos recuperados, atendendo os critérios de busca em níveis de relevância e em cada nível os documentos são ordenados segundo um critério. Tanto o critério de agrupamento quanto o de ordenação são definidos baseados no perfil do usuário. Como base para a implementação da proposta é utilizada a Biblioteca Digital de Literatura Brasileira e Catarinense (LBC), desenvolvida no contexto do projeto CNPq SIDIE (Sistema de Disponibilização de Informações para o Ensino).
345

Uma avaliação das interações de alunos em atividades colaborativas apoiadas em técnicas de mineração para identificação de parâmetros para análise de desempenho

Padilha, Thereza Patrícia Pereira January 2005 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T02:12:03Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T19:52:06Z : No. of bitstreams: 1 221659.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / A facilidade de comunicação introduzida pelo avanço das redes de comunicação tem viabilizado o desenvolvimento de vários ambientes de aprendizado colaborativo para a Educação a Distância via Internet. Esse avanço tem possibilitado a interação síncrona e assíncrona entre os participantes (aluno-aluno ou aluno-professor), independentemente de tempo e local. Um importante tópico de pesquisa relacionado com os ambientes de aprendizado colaborativo diz respeito à análise das interações dos alunos na execução das atividades. Muitas interações de alunos no aprendizado colaborativo podem ser capturadas e armazenadas num banco de dados para análises futuras. Entretanto, a extração de informações úteis nesse banco é quase impossível sem o uso de técnicas de mineração. Este trabalho propõe um modelo de análise das interações dos alunos que integra técnicas de mineração de textos e de dados para identificar o desempenho de colaboração. Dentre as interações analisadas, existem índices quantitativos, que fornecem um aspecto numérico das interações realizadas e índices qualitativos, que representam aspectos cognitivos e sociais das interações. A técnica de mineração de textos atua como uma forma alternativa para categorizar as intenções dos alunos em interações textuais de acordo com a taxonomia de Soller. A técnica de mineração de dados, por sua vez, encontra padrões de classificação para a construção de relatórios de desempenho em três níveis de detalhamento: inter-grupos, grupos e alunos. O modelo proposto foi incorporado ao ambiente de aprendizado colaborativo RESOLVE que dispõe das ferramentas de comunicação chat, editor de texto, votação e agenda para a resolução de problemas. A arquitetura, os aspectos da implementação e as interfaces desse ambiente são apresentados. Experimentos, com dez grupos de três pessoas cada, foram realizados para verificar a viabilidade do modelo, que se mostrou eficiente para auxiliar o professor no acompanhamento das atividades desempenhadas pelos alunos.
346

Uma abordagem simplificada de detecção de intrusão baseada em redes neurais artificiais

Lima, Igor Vinícius Mussoi de January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T02:44:15Z (GMT). No. of bitstreams: 1 220915.pdf: 1197301 bytes, checksum: ba6d9b831022cb36e59f61860063cc4f (MD5) / Este trabalho apresenta uma abordagem simplificada de detecção de intrusão, aplicando técnicas de inteligência artificial para a classificação de eventos em redes de computadores. A base desta abordagem é o monitoramento do fluxo de dados da rede, o qual é considerado subsídio para análises posteriores, onde aplicam-se métodos especiais como análise semântica e redes neurais artificiais. O modelo proposto para esta abordagem possui arquitetura baseada em rede, método de detecção que incorpora funcionalidades de abuso e anomalia e geração de respostas passivas aos eventos detectados. Os resultados gerados pelo processo de análise são valores numéricos, os quais classificam os eventos analisados em padrões considerados intrusivos ou normais. A eficiência desta classificação é modelada durante a fase de aquisição de conhecimento, denominada treinamento. A forma de representação e aquisição do conhecimento, bem como as características adaptativas obtidas pelo processo de generalização do modelo, caracterizam contribuições efetivas da pesquisa realizada, cujas comprovações são demonstradas pelos experimentos realizados sobre o protótipo desenvolvido.
347

Seleção de recursos baseada nas características das aplicações em ambientes de grade de multi-agregados

Silva, Rodrigo Grumiche 26 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2011 / Made available in DSpace on 2012-10-26T07:41:58Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T20:48:33Z : No. of bitstreams: 1 293086.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Grades computacionais são uma estrutura complexa constituída com hardware e software e que provê acesso confiável, pervasivo e de baixo custo a recursos computacionais de alto desempenho. Middlewares de grade fazem parte desta infraestrutura e são responsáveis por esconder a complexidade deste ambiente aos seus usuários, permitindo que estes usem os recursos disponíveis para a execução de aplicações e armazenamento de dados de maneira facilitada. Os meta-escalonadores fornecem serviços para submissão de aplicação a serem executadas em recursos computacionais de uma grade. Usualmente o mecanismo de seleção de recursos do meta-escalonador é baseado numa descrição sintática ou semântica dos requisitos de hardware e software necessários para executar a aplicação, que é informado pelo usuário. O problema é que esta abordagem requer que o usuário tenha um bom conhecimento sobre as características que recursos computacionais podem ter e como estes afetam a execução da aplicação do usuário. Isto ocorre porque as aplicações possuem características estruturais e comportamentais que restringem quais recursos são capazes de executá-la. E tais características também podem afetar o desempenho da aplicação, dependendo das características do recurso. Nesta dissertação é proposta uma alternativa heurística para a seleção de recursos computacionais num ambiente de grade de múltiplos agregados, onde o usuário descreve as características das aplicações e o mecanismo de seleção de recursos avalia o nível de adequação dos recursos computacionais disponíveis no ambiente de grade. Tal mecanismo se utiliza de descrição ontológica das características da aplicação para seleção e de um sistema de controle difuso para obter os níveis de adequação de cada um dos recursos computacionais. Para validação da proposta, o simulador de ambientes de grade GridSim foi utilizado e foram verificadas melhorias em alguns cenários de simulação.
348

Caracterização computacional para alocação distribuída para uma configuração com interface natural de usuário

Ferreira, Guilherme Maciel January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2015-11-03T03:08:31Z (GMT). No. of bitstreams: 1 335776.pdf: 2160365 bytes, checksum: 68ea7ab8421bb65ea38a23e2b8c19ef8 (MD5) Previous issue date: 2015 / Em um sistema distribuído heterogêneo, como grades computacionais, a escolha do sistema computacional para processar uma tarefa é realizada por meio de heurísticas adotadas igualmente para todos os sistemas. Os métodos atuais para avaliação da carga computacional, em grades heterogêneas, não levam em consideração características qualitativas que afetam o desempenho. Sistemas computacionais aparentemente idênticos, com as mesmas características quantitativas (tal como a quantidade de núcleos de processamento e de memória), podem apresentar desempenhos desiguais. O método proposto consiste em uma política de informação ao balanceamento de carga e tem como objetivo mensurar a carga dos sistemas computacionais por meio da avaliação de seus recursos quantitativos, tanto os imutáveis (como a quantidade de núcleos de processamento) quanto os mutáveis (como o percentual de memória livre), e qualitativos, inerentes à arquitetura do sistema computacional. A comparação da carga computacional entre os sistemas permite que o balanceamento de carga seja realizado mesmo em sistemas distribuídos heterogêneos para que seja possível a escolha do sistema computacional no qual executar uma tarefa da forma mais eficiente. Esta pesquisa utiliza a ferramenta CVFlow, uma Interface Natural de Usuário destinada ao balanceamento de carga, para avaliar o método proposto. O experimento consiste no escalonamento de um conjunto de tarefas e na comparação do método proposto com o estado da arte presente na literatura. O método proposto fornece um conjunto de melhorias que distribuem a carga de forma mais homogênea entre os sistemas computacionais, evitando, assim, sobrecarregar um sistema específico, além de oferecer um desempenho superior na execução do conjunto de tarefas.<br> / Abstract : In a distributed heterogeneous system, such as grids, the choice of a computer system to process a task is performed by means of heuristics adopted equally for all systems. Current methods for assessing the computing load, on heterogeneous grids, do not take into account qualitative characteristics that affect performance. Computer systems apparently identical, with the same quantitative traits (such as the number of processing cores and memory), may provide different performance. The proposed method consists of an information policy to load balancing. It aims to measure the load of a computer systems through the assessment of their quantitative and qualitative features. Quantitative, both immutable (as the number of cores) and mutable (as the percentage of free memory). And the qualitative, inherent to the computer system architecture. Comparison of computational load between systems allows load balancing to be performed even in heterogeneous distributed systems, to be able to choose the computer system on which to perform a task more efficiently. This research uses the CVFlow tool, a Natural User Interface intended for load balancing, to evaluate the proposed method. The experiment consists of the scheduling of a set of tasks and the comparison of the proposed method with the state of the art. The proposed method provides a set of improvements that distribute the load more evenly among computer systems, avoid overloading a particular system, and provides a better performance on the execution of the set of tasks.
349

Geração de personagens virtuais simulando o processo reprodutivo de seres diplóides / Generation of virtual personages simulating the reproductive process of beings diplóides

Vieira, Roberto César Cavalcante January 2007 (has links)
VIEIRA, Roberto César Cavalcante. Geração de personagens virtuais simulando o processo reprodutivo de seres diplóides. 2007. 81 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2007. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-12T16:36:44Z No. of bitstreams: 1 2007_dis_rccvieira.pdf: 16247883 bytes, checksum: a475b8382433f145cfc9fbc0feb2c480 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-21T16:12:01Z (GMT) No. of bitstreams: 1 2007_dis_rccvieira.pdf: 16247883 bytes, checksum: a475b8382433f145cfc9fbc0feb2c480 (MD5) / Made available in DSpace on 2016-07-21T16:12:01Z (GMT). No. of bitstreams: 1 2007_dis_rccvieira.pdf: 16247883 bytes, checksum: a475b8382433f145cfc9fbc0feb2c480 (MD5) Previous issue date: 2007 / In many Computer Graphics aplications, virtual character are needed, and can be used in animations, educational softwares, as an avatar, chosen to represent an user in a virtual reality application, etc. Usually, the available models is very limited. Therefore, combinations of hair color, cloth texture, and skin color are used to increase the selection space. In this paper, human reproduction is mimicked to produce an unlimited number of characters, which inherit traits from two parents. The meshes of all models are constructed based on control parameters that are distributed as genes among a group of chromosomes. Hence, the implementation consists of a pre-selected distribution of characteristics, represented as control parameters, over a pre-determined number of chromosome pairs for both parents; followed by a simulation of the father’s and mother’s gametes generation; which are randomly combined in a simulated fecundation. The diversity is ensured in three random processes: 1) random exchange of segments during crossover; 2) random alignment of homologous chromosomes at metaphase I of meiosis; and 3) random union of male and female gametes during fecundation. / Em inúmeras aplicações de Computação Gráfica, são necessários personagens virtuais, que podem ser utilizados em animações, aplicações educativas, representação de usuários em aplicações de realidade virtual, etc. Geralmente o número de modelos disponíveis é bastante limitado. Combinações de cor do cabelo, textura da roupa e cor da pele são utilizadas para ampliar as possibilidades de seleção. Neste trabalho, a reprodução humana é simulada para produzir um número ilimitado de personagens, que herdam características dos seus dois ascendentes. As malhas dos modelos são construídas a partir de parâmetros de controle que são distribuídos como genes entre um grupo de cromossomos. Assim, a implementação consiste na distribuição das características, representadas como parâmetros de controle, sobre um número pré-especificado de pares de cromossomos dos pais; seguida pela simulação do processo de geração dos gametas do pai e da mãe, os quais são aleatoriamente combinados através de fecundação simulada. A diversidade é garantida através de três processos aleatórios: 1) a troca aleatória de segmentos durante o crossover que ocorre na prófase I da meiose; 2) o alinhamento aleatório dos cromossomos homólogos durante a metáfase I da meiose; 3) a união aleatória dos gametas masculinos e femininos durante a fecundação.
350

Um arcabouço para a construção de aplicações baseadas em componentes sobre uma plataforma de nuvem computacional para serviços de computação de alto desempenho / A framework for building component-based applications on a cloud computing platform for high performance computing services

Silva, Jefferson de Carvalho January 2016 (has links)
SILVA, Jefferson de Carvalho. Um arcabouço para a construção de aplicações baseadas em componentes sobre uma plataforma de nuvem computacional para serviços de computação de alto desempenho. 2016. 189 f. Tese (Doutorado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2016. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-20T13:23:12Z No. of bitstreams: 1 2016_tese_jcsilva.pdf: 4498142 bytes, checksum: 52ad7d9692df71a47320a253bdd0b4e3 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-25T12:42:06Z (GMT) No. of bitstreams: 1 2016_tese_jcsilva.pdf: 4498142 bytes, checksum: 52ad7d9692df71a47320a253bdd0b4e3 (MD5) / Made available in DSpace on 2016-07-25T12:42:06Z (GMT). No. of bitstreams: 1 2016_tese_jcsilva.pdf: 4498142 bytes, checksum: 52ad7d9692df71a47320a253bdd0b4e3 (MD5) Previous issue date: 2016 / Developing High Performance Computing applications (HPC), which optimally access the available computing resources in a higher level of abstraction, is a challenge for many scientists. To address this problem, we present a proposal of a component computing cloud called HPC Shelf, where HPC applications perform and SAFe framework, a front-end aimed to create applications in HPC Shelf and the author's main contribution. SAFe is based on Scientific Workflows Management Systems (SWMS) projects and it allows the specification of computational solutions formed by components to solve problems specified by the expert user through a high level interface. For that purpose, it implements SAFeSWL, an architectural and orchestration description language for describing scientific worflows. Compared with other SWMS alternatives, besides rid expert users from concerns about the construction of parallel and efficient computational solutions from the components offered by the cloud, SAFe integrates itself to a system of contextual contracts which is aligned to a system of dynamic discovery (resolution) of components. In addition, SAFeSWL allows explicit control of life cycle stages (resolution, deployment, instantiation and execution) of components through embedded operators, aimed at optimizing the use of cloud resources and minimize the overall execution cost of computational solutions (workflows). Montage and Map/Reduce are the case studies that have been applied for demonstration, evaluation and validation of the particular features of SAFe in building HPC applications aimed to the HPC Shelf platform. / Desenvolver aplicações de Computação de Alto Desempenho (CAD), que acessem os recursos computacionais disponíveis de forma otimizada e em um nível maior de abstração, é um desafio para cientistas de diversos domínios. Esta Tese apresenta a proposta de uma nuvem de componentes chamada HPC Shelf, pano de fundo onde as aplicações CAD executam, e o arcabouço SAFe, Front-End para criação de aplicações na HPC Shelf e contribuição principal do autor. O SAFe toma como base o projeto de sistemas gerenciadores de workflows científicos (SGWC), permitindo a implementação de soluções computacionais baseadas em componentes para resolver os problemas especificados por meio de uma interface de nível de abstração mais alto. Para isso, foi desenvolvido o SAFeSWL, uma linguagem de descrição arquitetural e orquestração de worflows científicos. Comparado com outros SGWC, além de livrar usuários finais de preocupações em relação à construção de soluções computacionais paralelas e eficientes a partir dos componentes oferecidos pela nuvem, o SAFe faz uso de um sistema de contratos contextuais integrado a um sistema de descoberta (resolução) dinâmica de componentes. A linguagem SAFeSWL permite o controle explícito das etapas do ciclo de vida de um componente em execução (resolução, implantação, instanciação e execução), através de operadores embutidos, a fim de otimizar o uso dos recursos da nuvem e minimizar os custos de sua utilização. Montage e Map/Reduce constituem os estudos de caso aplicados para demonstração e avaliação das propriedades originais do SAFe e do SAFeSWL na construção de aplicações de CAD.

Page generated in 0.1309 seconds