Spelling suggestions: "subject:"inteligência artificial"" "subject:"nteligência artificial""
411 |
Aprendizado por reforço em ambientes não-estacionáriosSilva, Bruno Castro da January 2007 (has links)
Neste trabalho apresentamos o RL-CD (Reinforcement Learning with Context Detection), um método desenvolvido a fim de lidar com o problema do aprendizado por reforço (RL) em ambientes não-estacionários. Embora os métodos existentes de RL consigam, muitas vezes, superar a não-estacionariedade, o fazem sob o inconveniente de terem de reaprender políticas que já haviam sido calculadas, o que implica perda de desempenho durante os períodos de readaptação. O método proposto baseia-se em um mecanismo geral através do qual são criados, atualizados e selecionados um dentre vários modelos e políticas parciais. Os modelos parciais do ambiente são incrementalmente construídos de acordo com a capacidade do sistema de fazer predições eficazes. A determinação de tal medida de eficácia baseia-se no cálculo de qualidades globais para cada modelo, as quais refletem o ajuste total necessário para tornar cada modelo coerente com as experimentações reais. Depois de apresentadas as bases teóricas necessárias para fundamentar o RL-CD e suas equações, são propostos e discutidos um conjunto de experimentos que demonstram sua eficiência, tanto em relação a estratégias clássicas de RL quanto em comparação a algoritmos especialmente projetados para lidar com cenários não-estacionários. O RL-CD é comparado com métodos reconhecidos na área de aprendizado por reforço e também com estratégias RL multi-modelo. Os resultados obtidos sugerem que o RLCD constitui uma abordagem eficiente para lidar com uma subclasse de ambientes nãoestacionários, especificamente aquela formada por ambientes cuja dinâmica é corretamente representada por um conjunto finito de Modelos de Markov estacionários. Por fim, apresentamos a análise teórica de um dos parâmetros mais importantes do RL-CD, possibilitada pela aproximação empírica de distribuições de probabilidades via métodos de Monte Carlo. Essa análise permite que os valores ideais de tal parâmetro sejam calculados, tornando assim seu ajuste independente da aplicação específica sendo estudada. / In this work we introduce RL-CD (Reinforcement Learning with Context Detection), a novel method for solving reinforcement learning (RL) problems in non-stationary environments. In face of non-stationary scenarios, standard RL methods need to continually readapt themselves to the changing dynamics of the environment. This causes a performance drop during the readjustment phase and implies the need for relearning policies even for dynamics which have already been experienced. RL-CD overcomes these problems by implementing a mechanism for creating, updating and selecting one among several partial models of the environment. The partial models are incrementally built according to the system’s capability of making predictions regarding a given sequence of observations. First, we present the motivations and the theorical basis needed to develop the conceptual framework of RL-CD. Afterwards, we propose, formalize and show the efficiency of RL-CD both in a simple non-stationary environment and in a noisy scenarios. We show that RL-CD performs better than two standard reinforcement learning algorithms and that it has advantages over methods specifically designed to cope with non-stationarity. Finally, we present the theoretical examination of one of RL-CD’s most important parameters, made possible by means of the analysis of probability distributions obtained via Monte Carlo methods. This analysis makes it possible for us to calculate the optimum values for this parameter, so that its adjustment can be performed independently of the scenario being studied.
|
412 |
Descrição e geração de ambientes para simulações com sistemas multiagentesOkuyama, Fabio Yoshimitsu January 2003 (has links)
Este trabalho situa-se na área de Sistemas Multiagente, que é uma sub-área da Inteligência Artificial Distribuída. Em particular, o problema abordado nesta dissertação é o da modelagem de ambientes, um aspecto importante na criação de simulações baseadas em sociedades de agentes cognitivos, no entanto pouco tratado na literatura da área. A principal contribuição deste trabalho é a concepção de uma linguagem, chamada ELMS, própria para a definição de ambientes multiagente, e a implementação de um protótipo de interpretador para esta linguagem. O resultado da interpretação é um processo que simula o ambiente descrito em alto nível, e é apropriado para a interação com os agentes cognitivos que irão compartilhar o ambiente. Esta linguagem foi desenvolvida no contexto do projeto MASSOC, que tem como objetivo a criação de simulações sociais com agentes cognitivos. A abordagem deste projeto dá ênfase ao uso da arquitetura BDI para agentes cognitivos, a comunicação inter-agente de alto nível (ou seja, baseada em atos de fala) e a modelagem de ambientes com a linguagem ELMS, que é proposta neste trabalho. Os ambientes e agentes que podem ser usados na criação de simulaçõpes, bem como a comunicação entre eles utilizando a ferramenta SACI, são definidos ou gerenciados a partir de uma interface gráfica, que facilita a criação e controle de simulações com a plataforma MASSOC. Além de apresentar a linguagem ELMS e seu interpretador, esta dissertação menciona ainda, como breve estudo de caso, uma simulação de aspectos sociais do crescimento urbano. Esta simulação social auxiliou na concepção e avaliação da linguagem ELMS.
|
413 |
Um Modelo formal e executável de agentes BDIMora, Michael da Costa January 1999 (has links)
Modelos BDI (ou seja, modelos Beliefs-Desires-Intentions models) de agentes têm sido utilizados já há algum tempo. O objetivo destes modelos é permitir a caracterização de agentes utilizando noções antropomórficas, tais como estados mentais e ações. Usualmente, estas noções e suas propriedades são formalmente definidas utilizandos formalismos lógicos que permitem aos teóricos analisar, especificar e verificar agentes racionais. No entanto, apesar de diversos sistemas já terem sido desenvolvidos baseados nestes modelos, é geralmente aceito que existe uma distância significativa entre esta lógicas BDI poderosas e sistemas reais. Este trabalho defende que a principal razão para a existência desta distância é que os formalismos lógicos utilizados para definir os modelos de agentes não possuem uma semântica operacional que os suporte. Por “semântica operacional” entende-se tanto procedimentos de prova que sejam corretos e completos em relação à semântica da lógica, bem como mecanismos que realizem os diferentes tipos de raciocínio necessários para se modelar agentes. Há, pelo menos, duas abordagens que podem ser utilizadas para superar esta limitação dos modelos BDI. Uma é estender as lógicas BDI existentes com a semântica operacional apropriada de maneira que as teorias de agentes se tornem computacionais. Isto pode ser alcançado através da definição daqueles procedimentos de prova para as lógicas usadas na definição dos estados mentais. A outra abordagem é definir os modelos BDI utilizando formalismos lógicos apropriados que sejam, ao mesmo tempo, suficientemente poderosos para representar estados mentais e que possuam procedimentos operacionais que permitam a utilizaçao da lógica como um formalismo para representação do conhecimento, ao se construir os agentes. Esta é a abordagem seguida neste trabalho. Assim, o propósito deste trabalho é apresentar um modelo BDI que, além de ser um modelo formal de agente, seja também adequado para ser utilizado para implementar agentes. Ao invés de definir um novo formalismo lógico, ou de estender um formalismo existente com uma semântica operacional, define-se as noções de crenças, desejos e intenções utilizando um formalismo lógico que seja, ao mesmo tempo, formalmente bem-definido e computacional. O formalismo escolhido é a Programação em Lógica Estendida com Negação Explícita (ELP) com a semântica dada pelaWFSX (Well-Founded Semantics with Explicit Negation - Semântica Bem-Fundada com Negação Explícita). ELP com a WFSX (referida apenas por ELP daqui para frente) estende programas em lógica ditos normais com uma segunda negação, a negação explícita1. Esta extensão permite que informação negativa seja explicitamente representada (como uma crença que uma propriedade P não se verifica, que uma intenção I não deva se verificar) e aumenta a expressividade da linguagem. No entanto, quando se introduz informação negativa, pode ser necessário ter que se lidar com programas contraditórios. A ELP, além de fornecer os procedimentos de prova necessários para as teorias expressas na sua linguagem, também fornece um mecanismo para determinar como alterar minimamente o programa em lógica de forma a remover as possíveis contradições. O modelo aqui proposto se beneficia destas características fornecidas pelo formalismo lógico. Como é usual neste tipo de contexto, este trabalho foca na definição formal dos estados mentais em como o agente se comporta, dados tais estados mentais. Mas, constrastando com as abordagens até hoje utilizadas, o modelo apresentanto não é apenas uma especificação de agente, mas pode tanto ser executado de forma a verificar o comportamento de um agente real, como ser utilizado como mecanismo de raciocínio pelo agente durante sua execução. Para construir este modelo, parte-se da análise tradicional realizada na psicologia de senso comum, onde além de crenças e desejos, intenções também é considerada como um estado mental fundamental. Assim, inicialmente define-se estes três estados mentais e as relações estáticas entre eles, notadamente restrições sobre a consistência entre estes estados mentais. Em seguida, parte-se para a definição de aspectos dinâmicos dos estados mentais, especificamente como um agente escolhe estas intenções, e quando e como ele revisa estas intenções. Em resumo, o modelo resultante possui duas características fundamentais:(1) ele pode ser usado como um ambiente para a especificação de agentes, onde é possível definir formalmente agentes utilizando estados mentais, definir formalmente propriedades para os agentes e verificar se estas propriedades são satifeitas pelos agentes; e (2) também como ambientes para implementar agentes.
|
414 |
Critérios para avaliação de coordenação multiagenteFrozza, Rejane January 2004 (has links)
A utilização da abordagem de agentes, nas mais diversas áreas de aplicações, mostra o interesse nas pesquisas sobre sistemas multiagentes. Este interesse surgiu da necessidade de aplicar novas técnicas e conceitos para a construção de sistemas e para auxiliar no seu desenvolvimento. Neste sentido, os agentes satisfazem às expectativas, não sendo apenas utilizados para a solução de problemas acadêmicos, mas também de sistemas reais. Na ciência da computação, a inteligência artificial distribuída está profundamente relacionada com o problema de coordenação. O objetivo é projetar mecanismos de coordenação para grupos de agentes artificiais. Várias características envolvem a atuação de agentes em um ambiente multiagente, como os mecanismos de cooperação, coordenação, comunicação, organização, entre outros. Este trabalho apresenta um estudo sobre coordenação multiagente, enfatizando a sua avaliação. O objetivo é apresentar uma proposta de avaliação, com um conjunto de critérios definidos para serem aplicados em modelos de coordenação. Inicialmente, é apresentado um estudo sobre coordenação de agentes. A seguir, são abordados vários modelos de coordenação encontrados na literatura da área. A parte principal do trabalho corresponde à definição de critérios para avaliação da coordenação, a serem utilizados em duas etapas: uma análise do problema, com vistas à escolha de um modelo de coordenação a ser empregado em uma determinada aplicação, e uma avaliação a posteriori, baseada nos critérios propostos para avaliar o comportamento de um sistema coordenado após o uso de um modelo de coordenação específico.Para exemplificar a aplicação dos critérios, dois estudos de caso são apresentados e foram utilizados para os experimentos: um referente ao domínio da Robocup, utilizando o Time UFRGS e, outro, referente ao gerenciamento de agendas distribuídas.
|
415 |
Serviços para auxiliar decisão mediante incertezaBorges, Clairmont January 2005 (has links)
O objetivo deste trabalho é apresentar um modelo eficiente de representação de conhecimento que é construído a partir de relações de causa e efeito entre percepções e ações. Assume-se que é possível perceber o ambiente, é necessário fazer decisões mediante incerteza, é possível perceber a realimentação (feedback) referente ao sucesso ou fracasso das ações escolhidas, e é possível aprender com a experiência. Nós descrevemos uma arquitetura que integra o processo de percepção do ambiente, detecção de contexto, tomada de decisão e aprendizagem, visando obter a sinergia necessária para lidar com as dificuldades relacionadas. Além da descrição da arquitetura, é apresentada de forma sucinta uma metodologia chamada Computação Contextual, composta por duas fases principais: Definição e Operação. A fase de Definição envolve o projeto e modelagem de: i) Os subespaços de conhecimento conceitual e canônico; e ii) As regras de crescimento dinâmico. A fase de Operação complementa (isto é, estende e adapta) as definições iniciais através da aprendizagem feita pela interação com o ambiente.
|
416 |
Gerenciador de recursos em ambientes complexos: uma aplicação aos jogos de estratégia em tempo realSouza, Thiago de Andrade 30 August 2013 (has links)
Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T17:19:17Z
No. of bitstreams: 2
Dissertacao Thiago de Souza.pdf: 1729915 bytes, checksum: ebe8c8c9c8de88ca36d5f7aeaf87ade1 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T13:24:20Z (GMT) No. of bitstreams: 2
Dissertacao Thiago de Souza.pdf: 1729915 bytes, checksum: ebe8c8c9c8de88ca36d5f7aeaf87ade1 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T13:24:20Z (GMT). No. of bitstreams: 2
Dissertacao Thiago de Souza.pdf: 1729915 bytes, checksum: ebe8c8c9c8de88ca36d5f7aeaf87ade1 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013-08-30 / Gerenciamento de recursos é o processo de aplicar recursos disponíveis no corrente momento e aqueles que estão por se tornarem disponíveis no futuro para atingir objetivos de forma eficiente. Normalmente, quando recursos são escassos, esta tarefa não é fácil, especialmente quando os ambientes são em tempo-real, parcialmente observáveis, dinâmicos e incertos. Apesar de ser muito comum no mundo real assim como nos jogos digitais, particularmente nos jogos de estratégia em tempo real (RTS), existem poucas pesquisas nesse campo. Nesse estudo nós utilizamos RTS para propor uma abordagem baseada em política de investimento para realizar tomadas de decisões relacionadas à gestão de recursos em ambientes complexos. Nós desenvolvemos novas técnicas / conceitos e reusamos outros existentes. Realizamos várias simulações e os resultados se mostraram bastante promissores.
|
417 |
Auto-organização e aprendizagem por demonstração na determinação de marcha robóticaSANTANA JÚNIOR, Orivaldo Vieira de 04 May 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-19T16:42:50Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
tese.pdf: 4571246 bytes, checksum: aa714dc0378feb8f3d327b4a277d93bd (MD5) / Made available in DSpace on 2016-01-19T16:42:50Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
tese.pdf: 4571246 bytes, checksum: aa714dc0378feb8f3d327b4a277d93bd (MD5)
Previous issue date: 2015-05-04 / CAPES / Esta Tese apresenta uma abordagem para o problema de locomoção de robôs com patas. Esta
abordagem tem como base aprendizagem, planejamento e controle da movimentação dos membro
inferiores para deslocar um robô de um local para outro. O sistema construído com a abordagem
proposta produz padrões de saída semelhantes àqueles gerados por um Gerador Central de
Padrões (CPG) para controlar as articulações de um robô. Os algoritmos propostos são capazes
de, com um comando simples, mudar a velocidade de deslocamento do robô e de gerar sinais
sincronizados e rítmicos para as articulações. O processo de aprendizagem da movimentação dos
membros inferiores pode ser aplicado em diferentes robôs na aprendizagem de diversos modos
de locomoção. Neste processo não é necessário determinar um conjunto de equações e seus
parâmetros para cada robô. A informação necessária para a aprendizagem da movimentação das
pernas de um robô é extraída dos dados observados e organizada em estados. O controle das
articulações do robô é realizado com dados oriundos do conteúdo dos estados de uma trajetória
através de Controle Guiado por Dados (DDC). Os dados contidos nos estados devem informar
direta ou indiretamente a posição angular desejada para cada articulação. O agente aprendiz,
implementado com a abordagem proposta, gera uma representação interna da movimentação
dos membros através de um processo de auto-organização na qual conexões determinam a
transição entre estados. Estas conexões são criadas entre estados próximos com o objetivo de
gerar uma trajetória cíclica. Dois Mapas Auto-organizáveis (SOMs) de topologia variante no
tempo foram implementados para o processo de aprendizagem da abordagem proposta: Gerador
de Trajetória de Estados Auto-Organizável (SOM-STG) e Gerador de Trajetória de Estados
Cíclica Auto-Organizável (SOM-CSTG). O mapa SOM-CSTG é uma evolução de SOM-STG e
surgiu para superar algumas limitações do primeiro. O objetivo destes mapas é aprender posturas
e conectá-las para construir trajetórias usadas para controlar a marcha do robô. A aquisição
de dados de treinamento das redes é baseada em aprendizagem por demonstração, na qual, os
estados (posturas) são aprendidos a partir de um agente demonstrador. Estes mapas são capazes
de aprender com dados coletados a partir do sinal de saída de um CPG, de sensores sobre um
agente demonstrador ou de observações externas ao agente demonstrador, como por imagens
de vídeo. Uma trajetória cíclica de estados gerada por estes mapas, quando executada conduz o
movimento dos membros do robô de maneira semelhante aos padrões de movimentação presentes
nos dados de treinamento (marchas). Os testes de aprendizagem foram realizados com dados de
um robô simulado de seis patas, de um animal de quatro patas e dados da locomoção humana.
Os testes de planejamento e controle de movimentos foram realizados com um robô simulado de
seis patas e um robô simulado de quatro patas. / This Thesis presents an approach to legged robot locomotion problem. This approach is based
on learning, planning and control of the movement of the lower member to move a robot from
one location to another. The system built with the proposed approach produces output patterns
similar to those generated by Central Pattern Generator (CPG) for controlling the joints of a robot.
The proposed algorithms are able to, with a simple command, change displacement speed of
the robot and to generate synchronizing signals and rhythmic to the joints. The learning process
of the movement for inferior members can be applied to various robots in learning of many
gaits. In this process it is not necessary to determine a set of equations and parameters for each
robot. The substantial information for learning movement of the legs of a robot is extracted from
observed data and organized in states. The control of the robot joints is carried out data from the
content of the states of a trajectory through Data Driven Control (DDC). The data contained in
the states should inform directly or indirectly the desired angular position for each joint. The
learner agent, implemented with the proposed approach, generates an internal representation of
the movement of members through a process of self-organization in which connections determine
the transition between states. These connections are created between nearby states in order to
generate a cyclic trajectory. Two self-organizing maps (SOMs) with a time-varying structure
were implemented to the learning process of the proposed approach: Self-Organizing Map with
State Trajectory Generator (SOM-STG) and Self-Organizing Map with Cyclic State Trajectory
Generator (SOM-CSTG). SOM-CSTG is an evolution of SOM-STG and appeared to overcome
some limitations of the first one. The purpose of these maps is learn postures and connects them
to build paths used to control the motion of the robot. The acquirement of training data for the
networks is based on learning by demonstration, in which the states (postures) are learned from
a demonstrator agent. These maps are able to learning from data collected from the output signal
of a CPG, of sensor on a demonstrator agent or external observations to the demonstrator agent
such as video images. A cyclic trajectory of states generated by these maps, when executed leads
the movement of the robot members so similar to the movement patterns present in the training
data (gaits). The learning tests were performed with simulated data from a six-legged robot, a
four-legged animal and data of human locomotion. Planning and control movements tests were
performed with a simulated six-legged robot and a simulated four-legged robot.
|
418 |
A solution to extractive summarization based on document type and a new measure for sentence similarityMELLO, Rafael Ferreira Leite de 20 March 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-19T18:25:04Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE Rafael Ferreira Leite de Mello.pdf: 1860839 bytes, checksum: 4d54a6ef5e3c40f8bce57e3cc957a8f4 (MD5) / Made available in DSpace on 2016-02-19T18:25:04Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE Rafael Ferreira Leite de Mello.pdf: 1860839 bytes, checksum: 4d54a6ef5e3c40f8bce57e3cc957a8f4 (MD5)
Previous issue date: 2015-03-20 / The Internet is a enormous and fast growing digital repository encompassing billions of
documents in a diversity of subjects, quality, reliability, etc. It is increasingly difficult
to scavenge useful information from it. Thus, it is necessary to provide automatically
techniques that allowing users to save time and resources. Automatic text summarization
techniques may offer a way out to this problem. Text summarization (TS) aims at automatically
compress one or more documents to present their main ideas in less space. TS
platforms receive one or more documents as input to generate a summary. In recent years,
a variety of text summarization methods has been proposed. However, due to the different
document types (such as news, blogs, and scientific articles) it became difficult to create
a general TS application to create expressive summaries for each type. Another related
relevant problem is measuring the degree of similarity between sentences, which is used
in applications, such as: text summarization, information retrieval, image retrieval, text
categorization, and machine translation. Recent works report several efforts to evaluate
sentence similarity by representing sentences using vectors of bag of words or a tree of
the syntactic information among words. However, most of these approaches do not take
in consideration the sentence meaning and the words order. This thesis proposes: (i) a
new text summarization solution which identifies the document type before perform the
summarization, (ii) the creation of a new sentence similarity measure based on lexical,
syntactic and semantic evaluation to deal with meaning and word order problems. The
previous identification of the document types allows the summarization solution to select
the methods that is more suitable to each type of text. This thesis also perform a detailed
assessment with the most used text summarization methods to selects which create more
informative summaries for news, blogs and scientific articles contexts.The sentence similarity
measure proposed is completely unsupervised and reaches results similar to humans
annotator using the dataset proposed by Li et al. The proposed measure was satisfactorily
applied to evaluate the similarity between summaries and to eliminate redundancy in
multi-document summarization. / Atualmente a quantidade de documentos de texto aumentou consideravelmente principalmente com o grande crescimento da internet. Existem milhares de artigos de notícias, livros eletrônicos, artigos científicos, blog, etc. Com isso é necessário aplicar técnicas automáticas para extrair informações dessa grande massa de dados. Sumarização de texto pode ser usada para lidar com esse problema. Sumarização de texto (ST) cria versões comprimidas de um ou mais documentos de texto. Em outras palavras, palataformas de ST recebem um ou mais documentos como entrada e gera um sumário deles. Nos últimos anos, uma grande quantidade de técnicas de sumarização foram propostas. Contudo, dado a grande quantidade de tipos de documentos (por exemplo, notícias, blogs e artigos científicos) é difícil encontrar uma técnica seja genérica suficiente para criar sumários para todos os tipos de forma eficiente. Além disto, outro tópico bastante trabalhado na área de mineração de texto é a análise de similaridade entre sentenças. Essa similaridade pode ser usada em aplicações como: sumarização de texto, recuperação de infromação, recuperação de imagem, categorização de texto e tradução. Em geral, as técnicas propostas são baseados em vetores de palavras ou árvores sintáticas, com isso dois problemas não são abordados: o problema de significado e de ordem das palavras. Essa tese propõe: (i) Uma nova solução em sumarização de texto que identifica o tipo de documento antes de realizar a sumarização. (ii) A criação de uma nova medida de similaridade entre sentenças baseada nas análises léxica, sintática e semântica. A identificação de tipo de documento permite que a solução de sumarização selecione os melhores métodos para cada tipo de texto. Essa tese também realizar um estudo detalhado sobre os métodos de sumarização para selecinoar os que criam sumários mais informativos nos contextos de notícias blogs e artigos científicos. A medida de similaridade entre sentences é completamente não supervisionada e alcança resultados similarires dos anotadores humanos usando o dataset proposed por Li et al. A medida proposta também foi satisfatoriamente aplicada na avaliação de similaridade entre resumos e para eliminar redundância em sumarização multi-documento.
|
419 |
Evapotranspiração de referência para projeto de irrigação no Brasil utilizando o produto MOD16 / Reference evapotranspiration for irrigation project in Brazil using the product MOD16Dias, Santos Henrique Brant 22 February 2018 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2018-07-05T18:45:00Z
No. of bitstreams: 1
texto completo.pdf: 3935143 bytes, checksum: f2e4dfa587dbf822928fc5c5c31b2d3e (MD5) / Made available in DSpace on 2018-07-05T18:45:00Z (GMT). No. of bitstreams: 1
texto completo.pdf: 3935143 bytes, checksum: f2e4dfa587dbf822928fc5c5c31b2d3e (MD5)
Previous issue date: 2018-02-22 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Neste trabalho objetivou-se estimar valores de evapotranspiração de referência mensal e a máxima dos doze meses, visando o dimensionamento de sistemas de irrigação para o território brasileiro, a partir da calibração do produto MOD16. Utilizaram-se dados das estações convencionais do INMET, a fim de validar e calibrar todos os valores de evapotranspiração das imagens MOD16. Após a calibração utilizando machine learning e covariáveis do worldclim, as imagens calibradas foram utilizadas para modelar a evapotranspiração de referência para projeto de irrigação. Para isso, processou-se por meio de uma operação fuzzy, para cada mês, os máximos valores mensais ao longo dos 15 anos, pixel a pixel e, posteriormente, dividiu-se pelo número de dias do mês, encontrando assim, a média diária da máxima mensal, de quinze anos de dados do produto MOD16. Com esse produto e as variáveis do wordclim, foi possível modelar a evapotranspiração de referência para projeto de irrigação para todo o Brasil, utilizando uma probabilidade de oitenta por cento de ocorrência. A calibração do produto MOD16 se mostrou efetiva, já que o resíduo médio reduziu de 58,62 para 6,36 mm por mês depois da calibração e o erro quadrático médio reduziu de 66,58 para 10,23 mm por mês. Para a evapotranspiração de referência para projeto chegou-se a um erro quadrático médio de 0,306 mm d-¹ , os valores são viáveis para utilização em projetos de irrigação, já que os valores de estimativas se assemelham a diversos outros autores que trabalharam com essa evapotranspiração em uma coordenada específica. / The objective of this study was to estimate monthly evapotranspiration values and the maximum of twelve months, aiming at the design of irrigation systems for the Brazilian territory, based on the calibration of the product MOD16. Data from conventional INMET stations were used to validate and calibrate all evapotranspiration values of MOD16 images. After calibration using machine learning and covariates of the worldclim, the calibrated images were used to model the reference evapotranspiration for irrigation design. For this, a monthly fuzzy operation was performed for each month, and the maximum monthly values over the 15 years were processed pixel by pixel and, afterwards, it was divided by the number of days of the month, thus finding the daily average of monthly maximum of fifteen years of product data MOD16. With this product and the variables of the wordclim, it was possible to model the reference evapotranspiration for irrigation project for the whole Brazil, using an eighty percent probability of occurrence. The calibration of the MOD16 product proved to be effective, as the mean residue decreased from 58.62 to 6.36 mm per month after calibration and the mean square error reduced from 66.58 to 10.23 mm per month. For the reference evapotranspiration for design, an average square error of 0.306 mm d-¹ was obtained, and values of estimates very similar to several other authors that worked with this evapotranspiration in a specific coordinate.
|
420 |
Extração de informação usando integração de componentes de PLN através do framework GATEde Souza Cabral, Luciano 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:53:11Z (GMT). No. of bitstreams: 2
arquivo1907_1.pdf: 1663192 bytes, checksum: 21a772bd61ef448147054bfaa52598d1 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / A Extração de Informação (EI) é o ramo da área de recuperação de informação
que utiliza técnicas e algoritmos para identificar e coletar informações
desejadas a partir de documentos, sejam estes estruturados ou não,
armazenando-as em um formato apropriado para consultas futuras. Dentre
estas tecnologias, o uso de Processamento de Linguagem Natural (PLN)
revela-se benéfico ao processo de extração, principalmente quando se
processam documentos sem nenhuma estrutura e/ou padrão definido. Existe
uma suíte que reúne dezenas de plugins que podem ajudar na tarefa de EI
baseada em PLN, conhecida como GATE (General Architecture for Text
Engineering). Neste trabalho propõe-se o módulo RELPIE, contendo alguns
destes plugins para a extração a partir de texto livre. O módulo RELPIE é
original, e emprega plugins GATE baseados em padrões de expressões
regulares (ER) e regras de produção. Estas regras ficam totalmente separadas
do sistema, visando modularidade na extração de informação a partir de
documentos estruturados ou não. Os resultados obtidos nos experimentos
demonstram que o módulo RELPIE apresenta bons níveis de extração com
corpus compreendido por documentos textuais sem qualquer estrutura,
alcançando um reconhecimento acima de 80% em média. Efetuando uma
comparação com o sistema ANNIE (A Nearly-New Information Extraction
System), resultados mostram que esse sistema é mais preciso em relação ao
nosso, entretanto o sistema RELPIE mostra-se melhor na cobertura e no fmeasure.
Um dos experimentos revelou outra descoberta interessante: corpora
já processados denotam melhores resultados nas execuções posteriores, em
média 6% na precisão, o que sugere que corpora não anotados devem ser
processados duas vezes em seqüência para a obtenção de melhor
performance na tarefa de extração, especialmente quando envolve entidades
nomeadas e quando se usam ontologias para extraí-las
|
Page generated in 0.0864 seconds