• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3346
  • 194
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3543
  • 3130
  • 2816
  • 2814
  • 2810
  • 1929
  • 1048
  • 591
  • 508
  • 497
  • 483
  • 420
  • 401
  • 391
  • 369
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Resolu??o de correfer?ncia nominal usando sem?ntica em l?ngua portuguesa

Fonseca, Evandro Brasil 19 March 2018 (has links)
Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-06-19T11:37:24Z No. of bitstreams: 1 EVANDRO BRASIL FONSECA_TES.pdf: 1972824 bytes, checksum: 9fca0c499753cd9d2822c59040e826bf (MD5) / Approved for entry into archive by Sheila Dias (sheila.dias@pucrs.br) on 2018-06-26T14:40:39Z (GMT) No. of bitstreams: 1 EVANDRO BRASIL FONSECA_TES.pdf: 1972824 bytes, checksum: 9fca0c499753cd9d2822c59040e826bf (MD5) / Made available in DSpace on 2018-06-26T14:48:46Z (GMT). No. of bitstreams: 1 EVANDRO BRASIL FONSECA_TES.pdf: 1972824 bytes, checksum: 9fca0c499753cd9d2822c59040e826bf (MD5) Previous issue date: 2018-03-19 / Coreference Resolution task is challenging for Natural Language Processing, considering the required linguistic knowledge and the sophistication of language processing techniques involved. Even though it is a demanding task, a motivating factor in the study of this phenomenon is its usefulness. Basically, several Natural Language Processing tasks may benefit from their results, such as named entities recognition, relation extraction between named entities, summarization, sentiment analysis, among others. Coreference Resolution is a process that consists on identifying certain terms and expressions that refer to the same entity. For example, in the sentence ? France is refusing. The country is one of the first in the ranking... ? we can say that [the country] is a coreference of [France]. By grouping these referential terms, we form coreference groups, more commonly known as coreference chains. This thesis proposes a process for coreference resolution between noun phrases for Portuguese, focusing on the use of semantic knowledge. Our proposed approach is based on syntactic-semantic linguistic rules. That is, we combine different levels of linguistic processing, using semantic relations as support, in order to infer referential relations between mentions. Models based on linguistic rules have been efficiently applied in other languages, such as: English, Spanish and Galician. In few words, these models are more efficient than machine learning approaches when we deal with less resourceful languages, since the lack of sample-rich corpora may produce a poor training. The proposed approach is the first model for Portuguese coreference resolution which uses semantic knowledge. Thus, we consider it as the main contribution of this thesis. / A tarefa de Resolu??o de Correfer?ncia ? um grande desafio para a ?rea de Processamento da Linguagem Natural, tendo em vista o conhecimento lingu?stico exigido e a sofistica??o das t?cnicas de processamento da l?ngua empregados. Mesmo sendo uma tarefa desafiadora, um fator motivador do estudo deste fen?meno se d? pela sua utilidade. Basicamente, v?rias tarefas de Processamento da Linguagem Natural podem se beneficiar de seus resultados, como, por exemplo, o reconhecimento de entidades nomeadas, extra??o de rela??o entre entidades nomeadas, sumariza??o, an?lise de sentimentos, entre outras. A Resolu??o de Correfer?ncia ? um processo que consiste em identificar determinados termos e express?es que remetem a uma mesma entidade. Por exemplo, na senten?a ?A Fran?a est? resistindo. O pa?s ? um dos primeiros no ranking...? podemos dizer que [o pa?s] ? uma correfer?ncia de [A Fran?a]. Realizando o agrupamento desses termos referenciais, formamos grupos de men??es correferentes, mais conhecidos como cadeias de correfer?ncia. Esta tese prop?e um processo para a resolu??o de correfer?ncia entre sintagmas nominais para a l?ngua portuguesa, tendo como foco a utiliza??o do conhecimento sem?ntico. Nossa abordagem proposta ? baseada em regras lingu?sticas sint?tico-sem?nticas. Ou seja, combinamos diferentes n?veis de processamento lingu?stico utilizando rela??es sem?nticas como apoio, de forma a inferir rela??es referenciais entre men??es. Modelos baseados em regras lingu?sticas t?m sido aplicados eficientemente em outros idiomas como o ingl?s, o espanhol e o galego. Esses modelos mostram-se mais eficientes que os baseados em aprendizado de m?quina quando lidamos com idiomas menos providos de recursos, dado que a aus?ncia de corpora ricos em amostras pode prejudicar o treino desses modelos. O modelo proposto nesta tese ? o primeiro voltado para a resolu??o de correfer?ncia em portugu?s que faz uso de conhecimento sem?ntico. Dessa forma, tomamos este fator como a principal contribui??o deste trabalho.
72

Um modelo parametriz?vel de consumo de energia para estimativas de desempenho em redes de sensores visuais sem fio

Cerqueira, Marcos Vinicius Bi?o 27 March 2018 (has links)
Submitted by Verena Pereira (verenagoncalves@uefs.br) on 2018-07-09T21:47:13Z No. of bitstreams: 1 Dissertacao__final.pdf: 1378964 bytes, checksum: 0688c8e1f2a03519ff40f07649e30868 (MD5) / Made available in DSpace on 2018-07-09T21:47:13Z (GMT). No. of bitstreams: 1 Dissertacao__final.pdf: 1378964 bytes, checksum: 0688c8e1f2a03519ff40f07649e30868 (MD5) Previous issue date: 2018-03-27 / Funda??o de Amparo ? Pesquisa do Estado da Bahia - FAPEB / Wireless Sensor Networks (WSN) are composed of several devices, powered by bat- teries, distributed by the monitored area, where the use of internet networks is not applied. They have been gaining a lot of space because of the flexibility of appli- cations and their low implementation cost. With the improvement and cheapening of sensors equipped with cameras, and with their integration with the WSN, the Wireless Visual Sensors Networks (WVSN) have appeared, increasing, thus, the possibilities of possible applications. However, visual data demand greater proces- sing in their actions, potentially generating a greater energy consumption, making it necessary to better evaluate the useful life for the network. Therefore, this paper proposes to develop a mathematical model suitable for wireless visual sensor network that can estimate energy consumption. In addition, a tool was developed that im- plemented the proposed model, which in turn, was promising, obtaining satisfactory results, mainly in the area of image capture / Redes de Sensores Sem Fio (RSSF) s?o compostas por v?rios dispositivos, alimentados por baterias, distribu?dos pela ?rea monitorada, onde o uso de redes de internet n?o ? aplicado. Elas v?m ganhando muito espa?o devido a flexibilidade de aplica??es e do seu baixo custo de implementa??oo. Com o melhoramento e barateamento de sensores equipados com c?meras, e com a sua integra??o com as RSSF, surgiram as Redes de Sensores Visuais em Fio (RSVSF), aumentando, assim, as possibilidades de aplica??es poss?veis. Todavia, dados visuais demandam maior processamento em suas a??es, gerando potencialmente um maior consumo energ?tico, fazendo-se ent?o necess?rio uma melhor avalia??o do tempo de vida ?til para a rede. Portanto, esse trabalho se prop?e a desenvolver um modelo matem?tico pr?prio para rede de sensores visuais sem fio que possa estimar consumo de energia. Al?m disso, foi desenvolvido uma ferramenta que implementasse o modelo proposto. O modelo proposto se mostrou promissor, obtendo resultados satisfat?rios, principalmente no quesito de captura de imagens
73

Análise do uso dos laboratórios de experimentação remota como ferramenta de apoio à aprendizagem

Silva, Raiane Silveira da 28 August 2015 (has links)
Esse trabalho apresenta três artigos científicos relacionados ao uso de ferramentas tecnológicas de apoio à aprendizagem, com ênfase no uso de laboratórios de experimentação remota. O primeiro artigo traz uma pesquisa bibliográfica e observatória sobre as dificuldades do uso das ferramentas de apoio à aprendizagem. O segundo artigo trata-se de estudo exploratório que faz uma análise da revisão da literatura sobre a utilização da experimentação remota como ferramenta de aprendizagem. Essa análise foi realizada com a execução de passos necessários e bem estruturados, com critérios bem definidos e criticamente avaliados, através da identificação de estudos em oito bases de dados diferentes. O terceiro artigo relata a experiência do uso da experimentação remota em uma aula da disciplina de física para alunos do ensino médio que vivem e estudam na Comunidade Quilombola Lagoa da Pedra em Arraias (TO). O objetivo desse estudo específico foi observar o comportamento e os relatos dos alunos e professores durante a apresentação do laboratório de experimentação remota. A experimentação remota é baseada em ambientes que são laboratórios experimentais convencionais que passaram por um processo de automatização para que pudessem ser controlados remotamente através de dispositivos computadorizados. Os projetos de experimentação remota foram criados como uma alternativa a experimentos baseados em simulações ou na utilização de laboratórios tradicionais. Os experimentos remotos são mediados por computador, e podem ser executados em qualquer lugar, como nas simulações, porém em um laboratório remoto o aluno está controlando um aparato físico real, e obtém dados reais de uma experiência física. Diante da possibilidade da utilização de simuladores ou laboratórios tradicionais, este estudo tem o objetivo de analisar o uso da experimentação remota como instrumento de ensino. A Experimentação Remota possibilita à distância e em tempo real, a utilização de experimentos laboratoriais com recursos não existentes na escola, e que são essenciais aos alunos para aprofundar o conhecimento teórico com experiências práticas. Diante dos resultados obtidos, apresenta-se a contribuição da pesquisa e os ganhos significativos no processo de ensino e aprendizagem, e a importância VIII da inclusão de Tecnologias Educacionais em comunidade sem grandes recursos tecnológicos. / This work presents three papers related to the use of technology to support learning tools, with emphasis on the use of remote experimentation laboratories. The first article provides a literature search and observatory on the difficulties in the use of learning support tools. The second article deals with is an exploratory study that analyzes the literature review on the relevance of the use of remote experimentation as a learning tool. The remote experimentation is based on environments that are conventional laboratory experiments that have gone through an automation process so that they could be remotely controlled by computerized devices. The remote experimentation projects were created as an alternative to experiments or simulations based on the use of traditional laboratories. Remote experiments are mediated by computer, and can be performed anywhere, as in the simulations, but in a remote lab the student is controlling a real physical apparatus, and get real data from a physical experience. Faced with the possibility of using simulators or traditional laboratories, this study aims to verify the relevance of the use of remote experimentation as a teaching tool. The literature review was performed with the execution of necessary and well-structured steps, with clear criteria and critically assessed, through the identification studies in eight different databases. The second paper describes the experience of using remote experimentation in a class of physical discipline for high school students who live and study in the Community Quilombola Lagoa da Pedra in city of Arraias (TO). The aim of this study was to observe the behavior and reports of students and teachers during the presentation of remote experimentation lab. Remote Testing enables remotely and in real time, using laboratory experiments with non-existing resources in school, and that are essential for students to deepen their theoretical knowledge with practical experience. Based on these results, we present the research contribution and significant gains in teaching and learning process, and the importance of inclusion of Educational Technologies in community without major technological resources. Keywords: Remote Testing, Tools for learning, educational technologies.
74

Segmentação de imagens via método dos conjuntos de níveis e derivada topológica / Image segmentation via level set and toological derivative

Machado, Danubia de Araujo 08 May 2012 (has links)
Made available in DSpace on 2015-03-04T18:57:45Z (GMT). No. of bitstreams: 1 thesis-danubiaVersaoFinal.pdf: 4689546 bytes, checksum: 59d6cb58cd4f1e668c498a009b940d0d (MD5) Previous issue date: 2012-05-08 / In this work an image segmentation approach that uses low-pass filters as a pre-processing step and the topological derivative as a pre-segmentation step to obtain an rough definition of the objects of interest is proposed. The result obtained by topological derivative can be improved by applying morphological operators (post-processing) to correct the topology of objects and discard artifacts. Next, the resulting image the pos-processing step is the input for computing a distance transform field which is used to automatically initialize the level set method. In addition, a mathematical justification for the topological derivative formula in image segmentation is provided. The proposed methodology will be applied in the segmentation of cells images obtained by microscopy techniques. / Neste trabalho propõe-se uma abordagem de segmentação de imagens que utiliza filtros passa-baixas como uma etapa de pré-processamento e a derivada topológica como uma etapa de pré-segmentação para obter uma definição aproximada dos objetos de interesse. O resultado obtido pela derivada tropológica pode ser melhorado aplicando-se operadores morfológicos (pós-processamento) para correção da topologia dos objetos e descartar artefatos. Em seguida, a imagem resultante do pós-processamento é a entrada para o cálculo da transformada de distância que é utilizada para inicializar automaticamente o método dos conjuntos de níves. Também fornece-se uma justificativa matemática para a fórmula da derivada topológica em segmentação de imagens. A metodologia proposta será aplicada na segmentação de imagens de células obtidas por técnicas de microscopia.
75

Abordagens em aprendizagem estatística para computar componentes tensoriais em subespaços multilineares com aplicações em reconhecimento de expressões e gênero em imagens de face / Statistical learning approaches for computing tensor components in multilinear subspace with applications in gender and expression recognition based on face images

Filisbino, Tiene Andre 26 March 2015 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2015-09-25T15:37:17Z No. of bitstreams: 1 Tiene-Dissettacao.pdf: 10301534 bytes, checksum: 1bbdd0329f315edc2564176156c20ee3 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2015-09-25T15:37:32Z (GMT) No. of bitstreams: 1 Tiene-Dissettacao.pdf: 10301534 bytes, checksum: 1bbdd0329f315edc2564176156c20ee3 (MD5) / Made available in DSpace on 2015-09-25T15:37:48Z (GMT). No. of bitstreams: 1 Tiene-Dissettacao.pdf: 10301534 bytes, checksum: 1bbdd0329f315edc2564176156c20ee3 (MD5) Previous issue date: 2015-03-26 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / The main contributions of this dissertations are divided in two parts. The main goal of the first one is to investigate the efficiency of ranking techniques for tensor components in gender and facial expression (happiness versus neutral) experiments for classification and reconstruction problems in multilinear subspace learning. We will verify the consequences of ranking techniques in subspace learning through Fisher criterion, by estimating the covariance structure of the database and by using weights generated through separating hyperplanes, such as support vector machine (SVM) and linear discriminant analysis (LDA). The latter is named tensor discriminant principal component analysis (TDPCA). This analysis will be performed in the context of multilinear principal components analysis (MPCA) and concurrent subspace analysis (CSA), which are known techniques for multilinear subspace learning. The former follows the principal components analysis methodology, that centers the samples before the subspace learning computation while the latter performs the learning procedure using raw data. In the second part, we will analyze the influence of weights computed using SVM, LDA and Fisher criterion as a prior information to generate new tensor components in the context of MPCA. This new supervised subspace learning technique, named weighted MPCA (WMPCA), is combined with the ranking methods to re-orient weighted tensor components generating the WTDPCA subspaces. We apply the WMPCA and WTDPCA frameworks, for face image analysis. The results show the efficiency of WMPCA and WTDPCA subspaces to distinguish sample groups in classification tasks as well as some drawbacks between global and local patterns for reconstruction. We also address theoretical issues related to the connection between MPCA and CSA, as well as foundations in multilinear subspace learning problems; that is, the corresponding covariance structure and discriminant analysis. / As principais contribuições desta dissertação estão divididas em duas partes. O principal objetivo da primeira parte é investigar a eficiência das técnicas de ordenação para componentes tensoriais em experimentos de genero e expressão facial (felicidade contra neutra) para problemas de classificação e reconstrução em espaços multilineares. Nós verificaremos as consequências das técnicas de ordenação tensoriais via estrutura espectral dos dados, bem como usando pesos gerados através de hiperplanos de sepação, tais como SVM (support vector machine) e LDA (linear discriminant analysis), além de, do critério de Fisher. Esta análise foi realizada no contexto do MPCA (multilinear principal components analysis) e CSA (concurrent subspace analysis), as quais, são técnicas conhecidas na área de aprendizagem de subespaços multilineares. A primeira segue a metodologia do (PCA) (principal components analysis),que centraliza as amostras antes de computar o subespaço enquanto que a última realiza o procedimento de aprendizagem usando os dados brutos. Na segunda parte, nós analisamos a influência dos pesos computados usando SVM, LDA e critério de Fisher como uma informação a priori para gerar novas componentes tensoriais no contexto do MPCA. Esta nova técnica de aprendizagem supervisionada, que chamamos de WMPCA (weighted MPCA), é combinada com o método de ordenação para re-ordenar componentes tensoriais ponderadas computadas pelo WMPCA. Nós aplicamos a técnica combinada, denominada WTDPCA (weighted tensor discriminant principal components analysis), bem como o WMPCA, para análise de imagens de faces. Os resultados mostram a eficiência dos subespaços gerados para distinguir grupos de amostras em tarefas de classificação bem como questões inerentes a padrões globais e locais na reconstrução. Nós também abordamos aspectos teóricos relacionadas a conexão entre MPCA e CSA, bem como fundamentos relacionados a estrutura espectral e análise discriminante em problemas de aprendizagem multilineares.
76

Uso de metamodelos na evolução diferencial para problemas envolvendo simulações de alto custo computacional / Use of metamodels in the differential evolution to problems envolving comptational high cost simulations

Silva, Eduardo Krempser da 30 June 2014 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2015-10-07T15:23:26Z No. of bitstreams: 1 TeseEduardoKrempserDaSilva.pdf: 3216403 bytes, checksum: 1c9a6669bd66c6ab34913d087cb25175 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2015-10-07T15:23:44Z (GMT) No. of bitstreams: 1 TeseEduardoKrempserDaSilva.pdf: 3216403 bytes, checksum: 1c9a6669bd66c6ab34913d087cb25175 (MD5) / Made available in DSpace on 2015-10-07T15:23:55Z (GMT). No. of bitstreams: 1 TeseEduardoKrempserDaSilva.pdf: 3216403 bytes, checksum: 1c9a6669bd66c6ab34913d087cb25175 (MD5) Previous issue date: 2014-06-30 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / In several situations, discontinuities and di_culties in the use of derivatives, as well as the presence of discrete or mixed design variables make the application of classic optimization methods less attractive. These dificulties suggest the application of population-based metaheuristics, and specially those with natural inspiration. Among them, we are interested in the so called Diferential Evolution (DE), which has obtained good results in the literature. Despite of the quality of solutions obtained by DE in several optimization problems, DE cannot be used when the solution evaluation involves a computational expensive simulation. Therefore, even considering the continuous improvement of computational power in recent decades with a cost reduction, the application of metaheuristics such as DE, is deficient in the mentioned cases due to the large number of evaluations/simulations required to obtain a solution. In this context, the application of metamodels, or surrogate models, together with metaheuristics has received a growing attention of researchers of several areas. The metamodels generate a computational model which is simpler to be used in parts of the optimization process, replacing the original model. Its construction is based in previously obtained simulation results during the current optimization process. This work presents a new application strategy of metamodels within DE, which allows for computational cost reduction, besides providing a mechanism to alleviate the user of the variant parameter definition, one of most important definitions in DE. The work presents also an evaluation of di_erent local approximation models used as metamodel in the proposed scheme. Finally, some improvements are proposed by means of Design of Experiments (DoE) techniques and the adaptive selection of metamodel parameters; the DoE are applied aiming for the best way to select the next points to be evaluation and, consequently, generating a better final solution with a lower cost. The other proposed use of Adaptive Operator Selection mechanism is to select the number of radial basis used in the Radial Basis Function Networks applied as metamodel. / Em várias situações de interesse, descontinuidades e dificuldades severas no uso de derivadas, bem como variáveis de projeto discretas ou mistas tornam a aplicação de métodos clássicos de otimização pouco atraentes. Essas dificuldades sugerem o emprego de meta-heurísticas populacionais, em especial as de inspiração natural. Dentre estas estamos interessados na chamada Evolução Diferencial (DE), que tem apresentado bons resultados na literatura. Apesar da qualidade das soluções obtidas pela aplicação da DE nos mais diversos problemas de otimização, seu uso mostra-se proibitivo quando a avaliacão de uma solução candidata envolve uma simulação computacionalmente cara. Portanto, mesmo considerando que se observa nas ultimas décadas um contínuo processo de evolução da capacidade de processamento e a redução de seu custo, a aplicação de meta-heurísticas, tais como a DE, ainda e deficiente para os casos de interesse devido ao grande número de avaliações/simulações necessárias para obtenção da solução. Nesse contexto, a aplicação de metamodelos em conjunto com meta-heurísticas tem recebido uma crescente atenção dos pesquisadores de diversas áreas. Os metamodelos fornecem um modelo computacionalmente mais simples a ser utilizado em parte do processo de otimização em substituição ao modelo original. Para sua construção vale-se dos resultados das simulações previamente realizadas durante o próprio processo de otimização. Este trabalho apresenta uma estratégia de aplicação de metamodelos na DE, o qual permite a redução do custo computacional envolvido, além de valer-se de um mecanismo capaz de evitar a seleção a priori, por parte do usuário, de um dos mais importantes parâmetros da DE, a variante a ser utilizada. O trabalho apresenta ainda uma avaliação do uso de diferentes modelos de aproximação local como metamodelos para o esquema proposto. Apresentam-se também aprimoramentos da proposta por meio da aplicação de técnicas de Desenho de Experimentos (DoE) e a seleção automática do parâmetro do metamodelo. O DoE é aplicado visando uma melhor seleção dos pontos a serem exatamente avaliados e, consequentemente, melhorando a solução final com um menor custo computacional. Uma outra proposta, que será apresentada no final do trabalho, utiliza um mecanismo de adaptação de operadores para a seleção do número de bases de função radial da Rede de Funções de Base Radial considerada como metamodelo ao final do trabalho.
77

Estudo de configurações de modelos híbridos de ilhas para obtenção de uma ou mais soluções em otimização via meta-heurísticas / Study of configurations of hybrid island models for one or more solutions achievement in optimization via metaheuristics

Magalhães, Thiago Tavares 02 March 2016 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2016-12-13T16:05:44Z No. of bitstreams: 1 Thiago Tavares Magalhães - Estudo de configurações de modelos.pdf: 5946560 bytes, checksum: 7262f9bab0cb6698f3f33dc1183bf938 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2016-12-13T16:05:57Z (GMT) No. of bitstreams: 1 Thiago Tavares Magalhães - Estudo de configurações de modelos.pdf: 5946560 bytes, checksum: 7262f9bab0cb6698f3f33dc1183bf938 (MD5) / Made available in DSpace on 2016-12-13T16:06:09Z (GMT). No. of bitstreams: 1 Thiago Tavares Magalhães - Estudo de configurações de modelos.pdf: 5946560 bytes, checksum: 7262f9bab0cb6698f3f33dc1183bf938 (MD5) Previous issue date: 2016-03-02 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Optimization is a permanent subject for research, aiming to provide solutions that improve the utilization of resources and activities of various kinds. Due to the advances in distributed computational processing architectures, analysis and suggestion of parallelizable techniques for treatment of problems has been increasingly highlighted. Among them, the model known as ``island model'', which proposes the achievement of better optimized results in shorter execution time,and brings in a new set of parameters and possibilities, deserves special attention. Thus, this work presents interconnected sets of experiments and proposals that complement the literature concerning 1) the possibilities of model hybridization and the best strategies for hybridization, 2) the study of the parameter known as ``migration policy'' and its influence on diversification and exploitation, and 3) the applicability of the model and of the different implemented migration policies in the context of optimization aiming at several optima. In this way, this work joins the knowledge from the literature and experiments and suggestions that are not founded in previous researches. From these results it is expected that new implementations or applications of island hybrid models for optimization via metaheuristics, aiming at one or more optima, can be more efficiently developed. / A otimização é tema constante de estudo, visando prover soluções que melhorem o aproveitamento de recursos ou atividades de inúmeras naturezas. Com o avanço das arquiteturas distribuídas de processamento computacional, a análise e a sugestão de técnicas paralelizáveis para a resolução de problemas tem recebido cada vez mais destaque. Dentre estas, destaca-se o modelo conhecido como "modelo de ilhas", que propõe a obtenção de resultados mais otimizados em menor tempo de execução, trazendo consigo um novo conjunto de parâmetros e de possibilidades. Assim, este trabalho traz conjuntos interligados de experimentos e propostas que complementam a literatura sobre 1) possibilidades de hibridização do modelo e melhores estratégias de hibridização, 2) o estudo do parâmetro conhecido como ``política de migração'' e as suas influências com respeito à diversificação e especificação e 3) a aplicabilidade do modelo e das diferentes políticas de migração testadas no contexto da otimização visando vários ótimos. Dessa forma, este trabalho alia o conhecimento da literatura a experimentos e sugestões não encontrados em trabalhos anteriores. A partir destes resultados espera-se que novas implementações ou aplicações de modelos de ilha híbridos para otimização via meta-heurísticas, visando um ou vários ótimos, possam ser desenvolvidos de maneira mais eficiente.
78

Uma arquitetura para processamento de grande volumes de dados integrando sistemas de workflow científicos e o paradigma mapreduce

Zorrilla Coz, Rocío Milagros 13 September 2012 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-08-10T17:48:51Z No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-08-10T17:49:05Z (GMT) No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) / Made available in DSpace on 2017-08-10T17:49:17Z (GMT). No. of bitstreams: 1 RocioZorrilla_Dissertacao.pdf: 3954121 bytes, checksum: f22054a617a91e44c59cba07b1d97fbb (MD5) Previous issue date: 2012-09-13 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / With the exponential growth of computational power and generated data from scientific experiments and simulations, it is possible to find today simulations that generate terabytes of data and scientific experiments that gather petabytes of data. The type of processing required for this data is currently known as data-intensive computing. The MapReduce paradigm, which is included in the Hadoop framework, is an alternative parallelization technique for the execution of distributed applications that is being increasingly used. This framework is responsible for scheduling the execution of jobs in clusters, provides fault tolerance and manages all necessary communication between machines. For many types of complex applications, the Scientific Workflow Systems offer advanced functionalities that can be leveraged for the development, execution and evaluation of scientific experiments under different computational environments. In the Query Evaluation Framework (QEF), workflow activities are represented as algebrical operators, and specific application data types are encapsulated in a common tuple structure. QEF aims for the automatization of computational processes and data management, supporting scientists so that they can concentrate on the scientific problem. Nowadays, there are several Scientific Workflow Systems that provide components and task parallelization strategies on a distributed environment. However, scientific experiments tend to generate large sizes of information, which may limit the execution scalability in relation to data locality. For instance, there could be delays in data transfer for process execution or a fault at result consolidation. In this work, I present a proposal for the integration of QEF with Hadoop. The main objective is to manage the execution of a workflow with an orientation towards data locality. In this proposal, Hadoop is responsible for the scheduling of tasks in a distributed environment, while the workflow activities and data sources are managed by QEF. The proposed environment is evaluated using a scientific workflow from the astronomy field as a case study. Then, I describe in detail the deployment of the application in a virtualized environment. Finally, experiments that evaluate the impact of the proposed environment on the perceived performance of the application are presented, and future work discussed. / Com o crescimento exponencial do poder computacional e das fontes de geração de dados em experimentos e simulações científicas, é possível encontrar simulações que usualmente geram terabytes de dados e experimentos científicos que coletam petabytes de dados. O processamento requerido nesses casos é atualmente conhecido como computação de dados intensivos. Uma alternativa para a execução de aplicações distribuídas que atualmente é bastante usada é a técnica de paralelismo baseada no paradigma MapReduce, a qual é incluída no framework Hadoop. Esse framework se encarrega do escalonamento da execução em um conjunto de computadores (cluster), do tratamento de falhas, e do gerenciamento da comunicação necessária entre máquinas. Para diversos tipos de aplicações complexas, os Sistemas de Gerência de Workflows Científicos (SGWf) oferecem funcionalidades avançadas que auxiliam no desenvolvimento, execução e avaliação de experimentos científicos sobre diversos tipos de ambientes computacionais. No Query Evaluation Framework (QEF), as atividades de um workflow são representadas como operadores algébricos e os tipos de dados específicos da aplicação são encapsulados em uma tupla com estrutura comum. O QEF aponta para a automatização de processos computacionais e gerenciamento de dados, ajudando os cientistas a se concentrarem no problema científico. Atualmente, existem vários sistemas de gerência de workflows científicos que fornecem componentes e estratégias de paralelização de tarefas em um ambiente distribuído. No entanto, os experimentos científicos apresentam uma tendência a gerar quantidades de informação que podem representar uma limitação na escalabilidade de execução em relação à localidade dos dados. Por exemplo, é possível que exista um atraso na transferência de dados no processo de execução de determinada tarefa ou uma falha no momento de consolidar os resultados. Neste trabalho, é apresentada uma proposta de integração do QEF com o Hadoop. O objetivo dessa proposta é realizar a execução de um workflow científico orientada a localidade dos dados. Na proposta apresentada, o Hadoop é responsável pelo escalonamento de tarefas em um ambiente distribuído, enquanto que o gerenciamento das atividades e fontes de dados do workflow é realizada pelo QEF. O ambiente proposto é avaliado utilizando um workflow científico da astronomia como estudo de caso. Logo, a disponibilização da aplicação no ambiente virtualizado é descrita em detalhe. Por fim, são realizados experimentos para avaliar o impacto do ambiente proposto no desempenho percebido da aplicação, e discutidos trabalhos futuros.
79

Modelagem procedural de grupos em ambientes internos

Flach, Laura Mattos 15 March 2013 (has links)
Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-12-13T11:02:57Z No. of bitstreams: 1 Laura Mattos Flach_DIS.pdf: 7411445 bytes, checksum: 79da01d37fd4c16d4a855011a79c3773 (MD5) / Approved for entry into archive by Sheila Dias (sheila.dias@pucrs.br) on 2018-12-17T16:10:07Z (GMT) No. of bitstreams: 1 Laura Mattos Flach_DIS.pdf: 7411445 bytes, checksum: 79da01d37fd4c16d4a855011a79c3773 (MD5) / Made available in DSpace on 2018-12-17T16:16:06Z (GMT). No. of bitstreams: 1 Laura Mattos Flach_DIS.pdf: 7411445 bytes, checksum: 79da01d37fd4c16d4a855011a79c3773 (MD5) Previous issue date: 2013-03-15 / This work presents the utilization of procedural modelling to populate environments with virtual agents. It uses previously procedurally generated environments together with a crowd simulator to generate the agents locomotion. This work creates groups based on semantic informations of the environment to be populated and on data retrieved from IBGE for the population of Porto Alegre. It also generates behaviour for each member of the group created. These behaviours are coherent to the environment, to the group?s and member?s characteristics and also to time. All of these characteristics and specifications are transformed into seeds, wich makes the persistence of the data possible (the possibility of the regeneration of the context at any moment without the use of data structures) and the execution more simple (the model is fully automatic). / Este trabalho apresenta a utiliza??o de modelagem procedural para povoar ambientes com agentes virtuais. S?o utilizados ambientes previamente gerados tamb?m de forma procedural, juntamente com um simulador de multid?es para realizar a locomo??o dos agentes. O trabalho, al?m de criar grupos que se baseiam em informa??es sem?nticas do ambiente a ser povoado e em dados retirados do IBGE em rela??o ? popula??o de Porto Alegre, gera comportamentos para cada membro do grupo. Estes comportamentos gerados s?o coerentes com o ambiente, ?s caracter?sticas do grupo e do pr?prio membro, e ao tempo. Todas estas caracter?sticas e especifica??es s?o transformadas em seeds, o que permite a persist?ncia dos dados (possibilita que o contexto seja gerado novamente a qualquer momento sem a utiliza??o de estruturas de dados) e facilita a execu??o (o modelo ? totalmente autom?tico).
80

Um mecanismo abstrato de autoadaptação para sistemas de sensoriamento urbano

Borges, Guilherme Antonio January 2016 (has links)
Sensoriamento urbano e cidades inteligentes têm sido tópicos derivados da computação ubíqua em alta nos últimos anos, tanto para a academia como para a indústria, devido ao contínuo avanço tecnológico aliado à maior facilidade de acesso e aceitação pelos usuários. Na literatura pesquisada sobre plataformas que englobam tais tópicos foi constatado que diversas delas possuem algum processo autonômico utilizado para atender alguma necessidade de autoadaptação em tempo de execução. Apesar disso, nenhuma das plataformas pesquisadas focou especificamente em encontrar e propor uma solução para tratar exclusivamente a autoadaptação. Nesse contexto, esta dissertação tem por objetivo propor um mecanismo de autoadaptação para sistemas de sensoriamento urbano, além de avaliar seu comportamento. Como primeiro passo para realizar tal objetivo, foi conduzida uma pesquisa literária tendo em vistas identificar os principais casos de adaptação em sistemas de sensoriamento urbano, além de requisitos específicos da arquitetura de sensoriamento urbano UrboSenti, utilizada para implementação. Como segundo passo, a partir dos requisitos identificados, o modelo MAPE-K da computação autonômica foi escolhido como a base da construção do mecanismo de autoadaptação. A implementação deste modelo utilizou as técnicas de eventos passivos para monitoramento do ambiente, regras Evento-Condição-Ação, para tomada de decisão, planos estáticos para planejamento e adaptações por parâmetros e componentes para execução. Tanto o modelo como as técnicas escolhidas foram implementadas devido atenderem as necessidades dos cenários avaliados. Por fim, as avaliações aplicadas apontam resultados preliminares satisfatórios, dados os casos avaliados e os experimentos de tempo de resposta a eventos internos e interações; no entanto, tais avaliações revelarem diversos pontos que devem ser explorados em trabalhos futuros. / In the last years, urban sensing and smart cities have been popular topics derived from the ubiquitous computing, for both the academia and the industry, due to its continuous technological development combined with greater facilities of access and acceptance by the users. The reviewed literature about platforms that encompass such topics showed that many of them have some kind of autonomic process used to meet any need for self-adaptation at runtime. Despite this, none of the researched platforms focused in proposing a solution to exclusively meet the self-adaptation properties. In this way, this dissertation aims to propose a self-adaptive mechanism to urban sensing systems, as well as evaluating its behavior. As the first step to achieving such goal, a literature review was performed aiming to identify the main adaptation cases in urban sensing systems, as well to identify the specific requirements of the UrboSenti architecture for urban sensing. As the second step, the autonomic computing MAPE-K model was chosen to compose the foundation of the self-adaptive mechanism based on the identified requirements. The implementation of this model used the techniques of passive events for monitoring, rules Event-Condition-Action for decision making, static plans for planning and parameter and component adaptations for execution were used in the proposed implementation to meet the evaluated scenario needs. Lastly, the applied evaluations indicate satisfactory results, given the assessed cases and the experiments of scalability at the response of internal events and interactions. However, they have left many open points that should be explored in future works.

Page generated in 0.0612 seconds