• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 251
  • 2
  • 2
  • Tagged with
  • 256
  • 256
  • 256
  • 242
  • 235
  • 235
  • 234
  • 199
  • 132
  • 125
  • 103
  • 58
  • 51
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Estudo comparativo de diferentes classificadores baseados em aprendizagem de m?quina para o processo de Reconhecimento de Entidades Nomeadas

Santos, Jadson da Silva 09 September 2016 (has links)
Submitted by Jadson Francisco de Jesus SILVA (jadson@uefs.br) on 2018-01-24T22:42:26Z No. of bitstreams: 1 JadsonDisst.pdf: 3499973 bytes, checksum: 5deaf9020f758e9c07f86e9e62890129 (MD5) / Made available in DSpace on 2018-01-24T22:42:26Z (GMT). No. of bitstreams: 1 JadsonDisst.pdf: 3499973 bytes, checksum: 5deaf9020f758e9c07f86e9e62890129 (MD5) Previous issue date: 2016-09-09 / The Named Entity Recognition (NER) process is the task of identifying relevant termsintextsandassigningthemalabel.Suchwordscanreferencenamesofpeople, organizations, and places. The variety of techniques that can be used in the named entityrecognitionprocessislarge.Thetechniquescanbeclassifiedintothreedistinct approaches: rule-based, machine learning and hybrid. Concerning to the machine learningapproaches,severalfactorsmayinfluenceitsaccuracy,includingtheselected classifier, the set of features extracted from the terms, the characteristics of the textual bases, and the number of entity labels. In this work, we compared classifiers that use machine learning applied to the NER task. The comparative study includes classifiers based on CRF (Conditional Random Fields), MEMM (MaximumEntropy Markov Model) and HMM (Hidden Markov Model), which are compared in two corpora in Portuguese derived from WikiNer, and HAREM, and two corporas in English derived from CoNLL-03 and WikiNer. The comparison of the classifiers shows that the CRF is superior to the other classifiers, both with Portuguese and English texts. This study also includes the comparison of the individual and joint contribution of features, including contextual features, besides the comparison ofthe NER per named entity labels, between classifiers andcorpora. / O processo de Reconhecimento de Entidades Nomeadas (REN) ? a tarefa de iden- tificar termos relevantes em textos e atribu?-los um r?tulo. Tais palavras podem referenciar nomes de pessoas, organiza??es e locais. A variedade de t?cnicas que podem ser usadas no processo de reconhecimento de entidades nomeadas ? grande. As t?cnicas podem ser classificadas em tr?s abordagens distintas: baseadas em regras, baseadas em aprendizagem de m?quina e h?bridas. No que diz respeito as abordagens de aprendizagem de m?quina, diversos fatores podem influenciar sua exatida?, incluindo o classificador selecionado, o conjunto de features extra?das dos termos, as caracter?sticas das bases textuais e o n?mero de r?tulos de entidades. Neste trabalho, comparamos classificadores que utilizam aprendizagem de m?quina aplicadas a tarefa do REN. O estudo comparativo inclui classificadores baseados no CRF (Condicional Random Fields), MEMM (Maximum Entropy Markov Model) e HMM (Hidden Markov Model), os quais s?o comparados em dois corporas em portugu?s derivados do WikiNer, e HAREM, e dois corporas em ingl?s derivados doCoNLL-03 e WikiNer. A compara??o dos classificadores demonstra que o CRF ? superior aos demais classificadores, tanto com textos em portugu?s, quanto ingl?s. Este estudo tamb?m inclui a compara??o da contribui??o, individual e em conjunto de features, incluindo features de contexto, al?m da compara??o do REN por r?otulos de entidades nomeadas, entre os classificadores e os corpora.
62

Desenvolvimento e avaliação de um ambiente de computação em cloud para aplicações científicas / Development and evaluation of a Cloud computing environment for scientific applications

Valenzano, Giacomo Victor Mc Evoy 10 December 2010 (has links)
Made available in DSpace on 2015-03-04T18:50:30Z (GMT). No. of bitstreams: 1 Giacomo.pdf: 2099220 bytes, checksum: d6927d7d0c872e71a61326b4e0e42e48 (MD5) Previous issue date: 2010-12-10 / Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / This work presents a proposal for a Cloud computing environment, for the deployment and execution of distributed applications. Cloud Computing may be defined as a provisioning model of on-demand, virtualized computing resources as a service. Here, I make a description of Cloud Computing as a type of distributed computing, comparing it with Grid Computing. Some intrinsic characteristics of Cloud environments are presented, along with proposals for their classification and general architecture. Additionally, I propose an implementation of a specific Cloud environment, oriented to scientific applications. I describe the proposed architecture and beha- vior of the implementation, indicating the considerations made while choosing and configuring its components. This work presents the evaluation of the proposed Cloud using a distributed application as a case study. The deployment in the virtualized environment is studied in detail. Finally, I present results of experiments conducted in order to evaluate the environment impact on the performance of processing and communication, and I discuss future work. / Neste trabalho é apresentado um ambiente de Cloud ou Nuvem, para a disponibilização e execução de aplicações distribuídas. A computação em Cloud pode ser definida como um modelo de aprovisionamento de recursos computacionais, virtualizados e sob demanda, oferecidos como um serviço. A computação em Cloud é descrita neste trabalho como um tipo de computação distribuída, a qual é comparada com a computação em Grade. São descritas caraterísticas próprias de um ambiente de Cloud, com uma proposta para a classificação e arquitetura geral desses ambientes. Adicionalmente, é proposta a implementação de um ambiente específico de Cloud, orientado a aplicações científicas. São descritos o funcionamento e arquitetura propostos para a implementação, indicando as considerações realizadas para a escolha e configuração dos componentes. O ambiente proposto é avaliado utilizando uma aplicação distribuída como estudo de caso e a disponibilização da aplicação no ambiente virtualizado avaliada em detalhe. Por fim, são realizados experimentos para avaliar o impacto do ambiente no desempenho da capacidade de processamento e comunicação, e discutidos trabalhos futuros.
63

Fluxo do vetor gradiente e modelos deformáveis out-of-core para segmentação e imagens / Gradient vector flow and out-of-core image segmentaion by deformable models

Marturelli, Leandro Schaeffer 07 April 2006 (has links)
Made available in DSpace on 2015-03-04T18:50:41Z (GMT). No. of bitstreams: 1 capitulo00.pdf: 149755 bytes, checksum: a2f94dd5a3a96753bd5a54659a575c98 (MD5) Previous issue date: 2006-04-07 / Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Main memory limitations can lower the performance of segmentation applications for large images or even make it undoable. In this work we integrate the T-Surfaces model and Out-of-Core isosurface generation methods in a general framework for segmentation of large image volumes. T-Surfaces is a parametric deformable model based on a triangulation of the image domain, a discrete surface model and an image threshold. Isosurface generation techniques have been implemented through an Out-of-Core method that uses a kd-tree structure, called Meta-Cell technique. By using the Meta-Cell framework, we present an Out-of-Core version of a segmentation method based on T-Surfaces and isosurface extraction. The Gradient Vector Flow (GVF) is an approach based on Partial Differential Equations. This method has been applied together with snake models for image segmentation through boundary extraction. The key idea is to use a diffusion-reaction PDE in order to generate a new external force field that makes snake models less sensitivity to initialization as well as improves the snake s ability to move into boundary concavities. In this work, we firstly review basic results about global optimization conditions of the GVF and numerical considerations of usual GVF schemes. Besides, we present an analytical analysis of the GVF and a frequency domain analysis, which gives elements to discuss the dependency from the parameter values. Also, we discuss the numerical solution of the GVF based in a SOR method. We observe that the model can be used for Multiply Connected Domains and applied an image processing approach in order to increase the GVF efficiency. / Limitações de memória principal podem diminuir a performance de aplicativos de segmentação de imagens para grandes volumes ou mesmo impedir seu funcionamento. Nesse trabalho nós integramos o modelo das T-Superfícies com um método de extração de iso-superfícies Out-of-Core formando um esquema de segmentação para imagens de grande volume. A T-Superficie é um modelo deformável paramétrico baseado em uma triangulação do domínio da imagem, um modelo discreto de superfície e um threshold da imagem. Técnicas de extração de isso-superfícies foram implementadas usando o método Out-of-Core que usa estruturas kd-tree, chamadas técnicas de Meta-Células. Usando essas técnicas, apresentamos uma versão Out-of-Core de um método de segmentação baseado nas T-Superfícies e em iso-superfícies. O fluxo do Vetor Gradiente (GVF) é um campo vetorial baseado em equações diferenciais parciais. Esse método é aplicado em conjunto com o modelo das Snakes para segmentação de imagens através de extração de contorno. A idéia principal é usar uma equação de difusão-reação para gerar um novo campo de força externa que deixa o modelo menos sensível a inicialização e melhora a habilidade das Snakes para extrair bordas com concavidades acentuadas. Nesse trabalho, primeiramente serão revistos resultados sobre condições de otimização global do GVF e feitas algumas considerações numéricas. Além disso, serão apresentadas uma análise analítica do GVF e uma análise no domínio da frequência, as quais oferecem elementos para discutir a dependência dos parâmetros do modelo. Ainda, será discutida a solução numérica do GVF baseada no método de SOR. Observamos também que o modelo pode ser estendido para Domínios Multiplamente Conexos e aplicamos uma metodologia de pré-processamento que pode tornar mais eficiente o método.
64

Reconstrução e segmentação de angiografias via técnicas variacionais e métodos de Level Set / Angiography image reconstruction and segmentation using variational techniques and level set methods

Bulant, Carlos Alberto 26 February 2013 (has links)
Made available in DSpace on 2015-03-04T18:57:36Z (GMT). No. of bitstreams: 1 bulant.pdf: 14030619 bytes, checksum: 7bdeb54a02eeadbb90a53496f04a524c (MD5) Previous issue date: 2013-02-26 / This work focuses on tomographic reconstruction and three-dimensional arterial structures segmentation problems, understanding both as fundamentals modules of patient specific-based cardiovascular modeling. Is in this context where the possibility of improving information quality contained in medical images, by means of more accurate reconstruction methods, is of interest because of its impact on segmentation algorithm precision, allowing the construction of more realistic vessel geometrical models. Specifically, in this work, we study the reconstruction from projection inverse problem based on the classic simplified model for x-ray interaction, using the Radon transform, in two and three dimensions with different acquisition geometries. Then, we present the standard methods, which are based on analytic inversion of the Radon transform in the form of back-projection. An iterative reconstruction method based on sensitivity analysis, was studied and adapted to work in a parallel and matrix-free form. In addition, a novel reconstruction method, with foundations given by the theoretical framework of variational formulations, is developed. In view of the characteristics of the methodology, the computational implementation is carried out following a distributed computing paradigm on top of a matrix-free form version of the method. We perform parameter sensitivity analysis for each method, and a quantitative comparative analysis among them, using the well known Shepp-Logan head phantom, is also presented. Some preliminary reconstruction studies with real data are presented. In the context of medical image segmentation, we explore two alternatives for arterial structures segmentation from three dimension images acquired on three-Dimensional Rotational Angiography and Computed Tomography Angiography clinical studies. The first methodology is based on a simple seeded region growing algorithm, combined with thresholding and anisotropic diffusion techniques. The second pipeline uses a Level Set approach, initialized with the colliding fronts algorithm. Now days, Level Set methods variants are gaining popularity for vessel segmentation problems. In this work, we present a qualitative comparison by segmenting a numerical phantom, as well as segmenting arterial structures on different anatomical regions of the head and neck. At last, we present some recommendations for method and parameter choosing, as a function of the anatomical region. / Este trabalho foca-se nos problemas da reconstrução tomográfica e da segmentação de estruturas arteriais em três dimensões, entendendo ambos como blocos fundamentais na modelagem do sistema cardiovascular humano orientada a pacientes específicos. Dentro deste contexto, a possibilidade de melhorar a qualidade das informações contidas nas imagens médicas realizadas em estudos clínicos via métodos de reconstrução mais precisos torna-se atraente porque impacta diretamente na acurácia das técnicas de segmentação, e permite a construção de modelos geométricos mais próximos à realidade. Especificamente, neste trabalho, o problema inverso de reconstrução a partir de projeções é estudado empregando o modelo simplificado clássico, via a transformada de Radon, para duas e três dimensões com diferentes geometrias de amostragem. Logo, os métodos de resolução padrão baseados na inversão analítica desta transformada em forma de back-projection foram estudados. Um método iterativo baseado em análise de sensibilidade, denominado aqui como método baseado no gradiente topológico, foi estudado e adaptado para funcionar com um esquema matrix-free em paralelo. Em seguida, um novo método com fundamentos na teoria de formulações variacionais é desenvolvido. Devido às características do método, o mesmo é implementado computacionalmente empregando paralelismo e um formato matrix-free. Um estudo quantitativo sobre os parâmetros de cada método é fornecido, assim como também um estudo comparativo entre todos eles usando o amplamente difundido fantasma de Shepp-Logan. Por fim, estudos preliminares com projeções de estudos de angiografias rotacionais tridimensionais são apresentados. No contexto da segmentação de imagens médicas, duas alternativas são apresentadas para segmentar estruturas arteriais a partir de imagens tridimensionais provenientes de estudos de angiografia rotacional e tomográfica. A primeira metodologia baseia-se num enfoque simples de crescimento de região, combinado com thresholding e suavizado anisotrópico. A segunda metodologia utiliza um enfoque de Level Set, inicializado por uma técnica denominada colliding fronts. Na atualidade diversas variantes do método de Level Set têm ganhado popularidade na segmentação de estruturas arteriais. Neste trabalho comparam-se qualitativamente ambas alternativas com um fantasma numérico, e na segmentação de estruturas arteriais presentes em imagens médicas localizadas em diversas regiões anatômicas. Por fim, recomendações sobre o método mais conveniente a ser utilizado em cada região junto com valores para os parâmetros são fornecidos.
65

Modelagem e simulação de fluidos via técnicas de sketching, modelos de difusão-reação e método de lattice Boltzmann / Fluid modeling and simulation through sketching techniques, diffusion-reaction models and lattice Boltzmann method

Judice, Sicilia Ferreira Ponce Pasini 07 November 2017 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-03-15T12:16:53Z No. of bitstreams: 1 thesis-sicilia.pdf: 22807419 bytes, checksum: 2e869968cd7288e2f82a07fe6ec9911f (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-03-15T12:17:06Z (GMT) No. of bitstreams: 1 thesis-sicilia.pdf: 22807419 bytes, checksum: 2e869968cd7288e2f82a07fe6ec9911f (MD5) / Made available in DSpace on 2017-03-15T12:17:19Z (GMT). No. of bitstreams: 1 thesis-sicilia.pdf: 22807419 bytes, checksum: 2e869968cd7288e2f82a07fe6ec9911f (MD5) Previous issue date: 2017-11-07 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / This work presents a methodology involving two-dimensional fluids initialization through sketching techniques (free draw on tablets, for example) along with diffusion-reaction equations and fluid simulation using Lattice Boltzmann Method (LBM). In the initial stage, the framework converts the drawings made by the users into streamlines. From these lines it is generated a partial velocity field, which is widespread throughout the fluid domain through diffusion-reaction techniques. The velocity field obtained at the end of the process is used to initialize the fluid simulation via the LBM method. We tested two diffusion-reaction techniques, one based on differential equations (Gradient Vector Flow) and another in LBM models. We discussed aspects of vector fields topology and fluid dynamics involved in the sketching conversion into streamlines, as well as the preservation of singularities by the diffusion-reaction methods analyzed. The aim of our application is in the areas of visual effects and computer graphics. In this sense, we presented visual results involving the theoretical concepts which demonstrate the potential of the methodology presented for computational fluid animation . / Neste trabalho apresentamos uma metodologia envolvendo inicialização de fluidos bidimensionais usando técnicas de sketching (desenho livre em tablets, por exemplo) juntamente com equações do tipo difusão-reação e simulação do fluido usando método Lattice Boltzmann (LBM). Na etapa inicial, o framework converte os desenhos feitos pelo usuário em linhas de corrente. A partir destas linhas é gerado um campo de velocidades parcial, que é difundido por todo o domı́nio do fluido via técnicas de difusão-reação. O campo de velocidades obtido no final deste processo é usado para inicializar a simulação do fluido via método LBM. Foram testadas duas técnicas de difusão-reação, uma baseada em equações diferenciais (Gradient Vector Flow ) e outra em modelos do tipo LBM. São discutidos aspectos de topologia de campos vetoriais e dinâmica de fluidos envolvidos na conversão do sketching em linhas de corrente, bem como na preservação de singularidades pelos métodos de difusão-reação analisados. Nosso foco de aplicação está nas áreas de efeitos visuais e computação gráfica. Neste sentido, são apresentados resultados visuais envolvendo os conceitos teóricos os quais demonstram a potencialidade da metodologia apresentada para animação computacional de fluidos.
66

New perspectives on analyzing data from biological collections based on social network analytics

Siracusa, Pedro Correia de 26 June 2018 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2018-08-07T14:56:30Z No. of bitstreams: 1 dissertacao_LNCC_Pedro_C_Siracusa.pdf: 6667553 bytes, checksum: 8e4bc4cbfb017c3310acba5656150294 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2018-08-07T14:56:45Z (GMT) No. of bitstreams: 1 dissertacao_LNCC_Pedro_C_Siracusa.pdf: 6667553 bytes, checksum: 8e4bc4cbfb017c3310acba5656150294 (MD5) / Made available in DSpace on 2018-08-07T14:56:56Z (GMT). No. of bitstreams: 1 dissertacao_LNCC_Pedro_C_Siracusa.pdf: 6667553 bytes, checksum: 8e4bc4cbfb017c3310acba5656150294 (MD5) Previous issue date: 2018-06-26 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Coleções biológicas são consideradas fundamentais fontes de informação científica sobre biodiversidade, tendo historicamente suportado uma ampla gama de iniciativas para conservação de recursos naturais. Por serem tipicamente compostas de registros pontuais de espécies (muitos dos quais derivam de amostragem não aleatória e oportunística), dados de coleções biológicas são comumente associados a uma variedade de vieses, que precisam ser caracterizados e mitigados antes que dados possam ser consumidos. Nesta dissertação temos como principal motivação os vieses taxonômico e de coletor, que podem ser compreendidos como o efeito de preferências pessoais de coletores-chave na composição taxonômica das coleções com as quais eles contribuem. Neste contexto, propomos dois modelos de redes como um primeiro passo para um modelo conceitual, com o objetivo de compreender a formação de coleções biológicas como resultado da composição dos interesses e atividades de seus coletores. Os modelos estendem o campo bem estabelecido da análise de redes sociais, beneficiando-se de uma variedade de métricas e algoritmos para a caracterização de aspectos topológicos. Redes Espécie-Coletor (SCNs) modelam os interesses dos coletores em espécies, e se estruturam por meio de enlaces entre coletores e espécies que eles registram. De forma complementar, SCNs permitem tanto a investigação de coletores compartilhando interesses comuns em conjuntos de espécies; quanto de espécies normalmente coletadas por conjuntos similares de coletores. Redes Colaborativas de Coletores (CWNs) são um tipo especial de redes de colaboração, estruturadas a partir de enlaces colaborativos que se formam entre coletores que registram espécies em conjunto em campo. Tais relações de colaboração são criadas entre pares de coletores caso ambos tenham sido incluídos como coletores responsáveis pelo mesmo registro. Com base nos modelos definidos, nós também apresentamos um estudo de caso em que exploramos a comunidade de coletores e a composição taxonômica dos herbário da Universidade de Brasília. Descrevemos aspectos topológicos gerais das redes e indicamos alguns dos coletores mais relevantes na coleção, bem como grupos taxonômicos de seus respectivos interesses. Nós também investigamos o comportamento colaborativo de coletores durante a coleta de espécimes. Ao final, discutimos perspectivas futuras para a incorporação das dimensões temporal e geográfica nos modelos. Também indicamos algumas possíveis direções de investigação que poderiam se beneficiar de nossa abordagem para a modelagem e análise de coleções biológicas. / Biological collections have been historically regarded as fundamental sources of scientific information on biodiversity, supporting a wide range of scientific and management initiatives in the scope of natural resources conservation. As they are typically composed of discrete records of specimens (most of which derived from non-random and opportunistic sampling), biological collection datasets are commonly associated with a variety of biases, which must be characterized and mitigated before data can be consumed. In this dissertation, we are particularly motivated by taxonomic and collector biases, which can be understood as the effect of particular recording preferences of key collectors on shaping the overall taxonomic composition of biological collections they contribute to. In this context, we propose two network models as the first steps towards a network-based conceptual framework for understanding the formation of biological collections as a result of the composition of collectors’ interests and activities. Both models extend the well-established framework of social network analytics, benefiting from a whole set of metrics and algorithms for characterizing network topological features. Species-Collector Networks (SCNs) model the interests of collectors towards particular species, and are structured by linking collectors to each species they have recorded in biological collection datasets. From complementary perspectives, SCNs allow one to investigate which collectors share common interest for sets of species; and conversely, which species are usually recorded by similar sets of collectors. Collector CoWorking Networks (CWNs) are a special type of collaboration networks, structured from collaboration ties that are formed between collectors who record specimens together in field. Such collaborative ties are created between pairs of collectors whenever they are both included as collectors in the same record. Building upon the defined network models, we also present a case study in which we use our models to explore the community of collectors and the taxonomic composition of the University of Brasília herbarium. We describe general topological features of the networks and point out some of the most relevant collectors in the biological collection as well as their taxonomic groups of interest. We also investigate the collaborative behavior of collectors while recording specimens. Finally, we discuss future perspectives for incorporating temporal and geographical dimensions to the models. Moreover, we indicate some possible investigation directions that could possibly benefit from our approach based on social network analytics to model and analyze biological collections.
67

Modelo para análise de negociação em projetos de sistemas em uma fábrica de software baseado em pontos de caso de uso

MACIEL, Paulo Henrique de Lima 01 March 2011 (has links)
Submitted by Samira Prince (prince@ufpa.br) on 2012-05-17T13:46:06Z No. of bitstreams: 2 Dissertacao_ModeloAnaliseNegociacao.pdf: 452283 bytes, checksum: 01a58a2d3d37ba54fae92d95e5c67f31 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Approved for entry into archive by Samira Prince(prince@ufpa.br) on 2012-05-17T13:46:57Z (GMT) No. of bitstreams: 2 Dissertacao_ModeloAnaliseNegociacao.pdf: 452283 bytes, checksum: 01a58a2d3d37ba54fae92d95e5c67f31 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Made available in DSpace on 2012-05-17T13:46:57Z (GMT). No. of bitstreams: 2 Dissertacao_ModeloAnaliseNegociacao.pdf: 452283 bytes, checksum: 01a58a2d3d37ba54fae92d95e5c67f31 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Previous issue date: 2011 / A Modelagem de Sistemas vêm sendo cada vez mais aplicada nos meios de produção para as mais diversas finalidades, incluindo a área de Projeto de Sistemas, com o intuito de definir o número de pessoas na equipe, analisar o esforço, o tamanho do software e os custos totais do projeto. Este trabalho tem por finalidade desenvolver um modelo de apoio à análise baseado em Pontos de Caso de Uso (PCU). Para isso, utiliza-se de vários métodos de pesquisa entre elas a pesquisa exploratória e de laboratório para criar um modelo de apoio para a análise. / The systems modeling are being increasingly applied in the means of production for many different purposes, including the area of System Design, in order to set the number of people on the team, analyze the effort, software size and total project costs. This study aims to develop a model to support analysis based on Use Case Points (PCU). For this, we use various research methods including the exploratory research laboratory to create a model of support for analysis.
68

Experimentos de mineração de dados aplicados a sistemas scada de usinas hidrelétricas

OHANA, Ivaldo 13 April 2012 (has links)
Submitted by Samira Prince (prince@ufpa.br) on 2012-10-08T14:59:21Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_ExperimentosMineracaoDados.pdf: 1995665 bytes, checksum: a89259194d9be98e93a62ae66128cdaa (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2012-10-08T16:59:51Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_ExperimentosMineracaoDados.pdf: 1995665 bytes, checksum: a89259194d9be98e93a62ae66128cdaa (MD5) / Made available in DSpace on 2012-10-08T16:59:51Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_ExperimentosMineracaoDados.pdf: 1995665 bytes, checksum: a89259194d9be98e93a62ae66128cdaa (MD5) Previous issue date: 2012 / O atual modelo do setor elétrico brasileiro permite igualdade de condições a todos os agentes e reduz o papel do Estado no setor. Esse modelo obriga as empresas do setor a melhorarem cada vez mais a qualidade de seu produto e, como requisito para este objetivo, devem fazer uso mais efetivo da enorme quantidade de dados operacionais que são armazenados em bancos de dados, provenientes da operação dos seus sistemas elétricos e que tem nas Usinas Hidrelétricas (UHE) a sua principal fonte de geração de energia. Uma das principais ferramentas para gerenciamento dessas usinas são os sistemas de Supervisão, Controle e Aquisição de Dados (Supervisory Control And Data Acquisition - SCADA). Assim, a imensa quantidade de dados acumulados nos bancos de dados pelos sistemas SCADA, muito provavelmente contendo informações relevantes, deve ser tratada para descobrir relações e padrões e assim ajudar na compreensão de muitos aspectos operacionais importantes e avaliar o desempenho dos sistemas elétricos de potência. O processo de Descoberta de Conhecimento em Banco de Dados (Knowledge Discovery in Database - KDD) é o processo de identificar, em grandes conjuntos de dados, padrões que sejam válidos, novos, úteis e compreensíveis, para melhorar o entendimento de um problema ou um procedimento de tomada de decisão. A Mineração de Dados (ou Data Mining) é o passo dentro do KDD que permite extrair informações úteis em grandes bases de dados. Neste cenário, o presente trabalho se propõe a realizar experimentos de mineração de dados nos dados gerados por sistemas SCADA em UHE, a fim de produzir informações relevantes para auxiliar no planejamento, operação, manutenção e segurança das hidrelétricas e na implantação da cultura da mineração de dados aplicada a estas usinas. / The current model of the Brazilian electric sector allows equal terms to all actors and reduces the role of the State in this sector. This model forces the electrical utilities to improve the quality of their products and, as a prerequisite for this purpose, they should make more effective use of the enormous amount of operational data that are stored in databases, acquired from the operation of their electrical systems which use the hydroelectric power plants as their main source of energy generation. One of the main tools for managing the operation of these plants are the Supervisory Control and Data Acquisition systems (SCADA). Thus, the large amount of data stored in databases by SCADA systems, certainly containing relevant information, should be treated to discover relationships and patterns that would help in the understanding of many important operational aspects as well as in the evaluation of operational performance of the electric power systems. The process of Knowledge Discovery in Database (KDD) is the process of identification of patterns in large data sets, that are valid, new, and useful to improve the understanding of a problem or a decision-making procedure. Data Mining is the step within KDD that extracts useful information from large databases. In this scenario, the present study objective is to perform data mining experiments on data generated by power plants SCADA systems, to produce relevant information to assist in planning, operation, maintenance and security of hydro power plants and also contribute to the implementation of the culture of using data mining techniques applied to these plants.
69

Implementação em software da codificação de canal em ADSL: um estudo de caso sobre os efeitos do ruído impulsivo na transmissão de vídeo

CORRÊA, Fernanda Regina Smith Neves 25 March 2011 (has links)
Submitted by Samira Prince (prince@ufpa.br) on 2012-10-11T15:11:23Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_ImplementacaoSoftwareCodificacao.pdf: 2858087 bytes, checksum: 6c4682b32c60fc6ba383677c0c0dcb02 (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2012-10-11T16:38:32Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_ImplementacaoSoftwareCodificacao.pdf: 2858087 bytes, checksum: 6c4682b32c60fc6ba383677c0c0dcb02 (MD5) / Made available in DSpace on 2012-10-11T16:38:32Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_ImplementacaoSoftwareCodificacao.pdf: 2858087 bytes, checksum: 6c4682b32c60fc6ba383677c0c0dcb02 (MD5) Previous issue date: 2011 / Este trabalho apresenta a implementação em software da codificação de canal utilizada no padrão ADSL. A teoria da codificação de canal e descrita, bem como a codificação de canal implementada no Software Modem ADSL utilizando o ambiente de desenvolvimento Ptolemy II. A implementação de um modelo de ruído impulsivo também é apresentada. Para garantir que a implementação obedeça o padrão do ADSL, testes utilizando o analisador de sistemas DSL TraceSpan são descritos. O trabalho apresenta ainda um exemplo de aplicação do Software Modem ADSL, caracterizado por um estudo de caso sobre os efeitos do ruído impulsivo na transmissão de vídeo, analisando o impacto de alguns parâmetros da codificação de canal na correção dos erros. / This work describes the implementation in software of the channel coding used in the ADSL standard. The theory of channel coding is described, as well as the channel coding implemented in the Software Modem ADSL using the development environment Ptolemy II. The implementation of a impulsive noise model is also presented. To ensure that the implementation meets the ADSL standard, tests using the DSL systems analyzer TraceSpan are described. This work also presents an application example of the Software Modem ADSL, characterized by a study case on the e ects of impulsive noise in the video transmission, analyzing the impact of some parameters of channel coding in the correction of errors.
70

Avanços em reconhecimento de fala para português brasileiro e aplicações: ditado no libreoffice e unidade de resposta audível com asterisk

BATISTA, Pedro dos Santos 04 March 2013 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2013-08-22T12:06:57Z No. of bitstreams: 2 Dissertacao_AvancosReconhecimentoFala.pdf: 830021 bytes, checksum: 66c2281f39ceb40eff9897cfe4299857 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2013-08-23T15:23:15Z (GMT) No. of bitstreams: 2 Dissertacao_AvancosReconhecimentoFala.pdf: 830021 bytes, checksum: 66c2281f39ceb40eff9897cfe4299857 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Made available in DSpace on 2013-08-23T15:23:15Z (GMT). No. of bitstreams: 2 Dissertacao_AvancosReconhecimentoFala.pdf: 830021 bytes, checksum: 66c2281f39ceb40eff9897cfe4299857 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Previous issue date: 2013 / O reconhecimento automático de voz vem sendo cada vez mais útil e possível. Quando se trata de línguas como a Inglesa, encontram-se no mercado excelentes reconhecedores. Porem, a situação não e a mesma para o Português Brasileiro, onde os principais reconhecedores para ditado em sistemas desktop que já existiram foram descontinuados. A presente dissertação alinha-se com os objetivos do Laboratório de Processamento de Sinais da Universidade Federal do Pará, que é o desenvolvimento de um reconhecedor automático de voz para Português Brasileiro. Mais especificamente, as principais contribuições dessa dissertação são: o desenvolvimento de alguns recursos necessários para a construção de um reconhecedor, tais como: bases de áudio transcrito e API para desenvolvimento de aplicações; e o desenvolvimento de duas aplicações: uma para ditado em sistema desktop e outra para atendimento automático em um call center. O Coruja, sistema desenvolvido no LaPS para reconhecimento de voz em Português Brasileiro. Este alem de conter todos os recursos para fornecer reconhecimento de voz em Português Brasileiro possui uma API para desenvolvimento de aplicativos. O aplicativo desenvolvido para ditado e edição de textos em desktop e o SpeechOO, este possibilita o ditado para a ferramenta Writer do pacote LibreOffice, alem de permitir a edição e formatação de texto com comandos de voz. Outra contribuição deste trabalho e a utilização de reconhecimento automático de voz em call centers, o Coruja foi integrado ao software Asterisk e a principal aplicação desenvolvida foi uma unidade de resposta audível com reconhecimento de voz para o atendimento de um call center nacional que atende mais de 3 mil ligações diárias. / Automatic speech recognition has been increasingly more useful and feasible. When it comes to languages such as English, there are excellent speech recognizers available. However, the situation is not the same for Brazilian Portuguese, where the few recognizers for desktop dictation that existed, are no longer available. This dissertation is aligned with a goal of the Signal Processing Laboratory at the Federal University of Para, which is the development of a complete automatic speech recognizer for Brazilian Portuguese. More specifically, the main contributions of this dissertation are: the development of some resources needed to build a speech recognizer such as transcribed audio database and speech API; and the development of two applications: one for desktop dictation and another for automatic service in a call center. The system developed in-house for automatic speech recognition in Brazilian Portuguese is called Coruja, and besides all the resources that makes automatic speech recognition in Brazilian Portuguese available, the Coruja also contains an API for application development using speech recognition. The application for desktop dictation is called SpeechOO. The SpeechOO enables dictation and text editing and formatting by voice for the LibreOffice Writer. Other contribution of this work is the use of Coruja in call centers. Coruja was integrated with the Asterisk software, which is the main open source software for call centers. The main application developed for automated service in call center was an interactive voice response which is deployed nationally and receives more than 3 thousand daily calls.

Page generated in 0.0482 seconds