• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 13
  • Tagged with
  • 371
  • 371
  • 358
  • 358
  • 358
  • 130
  • 86
  • 71
  • 66
  • 66
  • 66
  • 60
  • 50
  • 48
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Ensino e aprendizagem do modelo Poisson: uma experiência com modelagem

Miguel, Maria Inez Rodrigues 25 October 2005 (has links)
Made available in DSpace on 2016-04-27T16:57:10Z (GMT). No. of bitstreams: 1 Doutorado Maria Inez Miguel.pdf: 1466295 bytes, checksum: cab4a04224edf6b54669d1e1fa9d3e99 (MD5) Previous issue date: 2005-10-25 / This researche concentrates on the teaching and learning of the Poisson s Model, whose questioning refers to the use of the Mathematical Modeling, to the steps to be considered and to the results both in the didactic interaction and in the acquisition achieved and mistakes made by the participating pupils. We considered the hypotheses that pair-work, computer use and practical experiments might favor the development of the didactical situations in order to validate it or not. For that purpose, a teaching sequence was elaborated based on our interpretation of the Mathematic Modeling Process suggested by Henry (1997) and it was applied to a group of University undergraduates students from the second year of the College of Electric Engineering and Computer Science. We adopted the Didactic Engineering as methodology, which allows for the validation of hypotheses through the confrontation between the two analysis, a priori and a posteriori, and favors the realignment of the activities during the process. The theoretical framework was constructed with some elements of Chevallard s praxeology and Godino s ontological-semiotic approach to cognition and mathematic instruction; the first guided the analysis of the didactic books and the elaboration and presentation of the proposed tasks in the intended sequence; the second was the basis for the determination of meaningful elements in Poisson s Model to be considered in the teaching and guide the result analysis, allowing for the identification of the knowledge acquired that were in accordance with the intended institutional guidelines and those that could be considered learning mistakes. This research lead to the conclusion that not only the use of the Mathematic Modeling is favorable for the study carried out but also that it made it possible for all the modeling steps to be interpreted, adapted and considered essential for the purposes to be achieved, emphasizing that the experiment carried out should be carefully chosen to serve as motivation for the target public and, if possible, contemplate interdisciplinary. Among the several significant elements of Poisson s Model taken as reference, many were acquired by the group of participating pupils. However, some difficulties related to the use of the software, to the interpretation of terms such as: at least, at most, etc and to the symbolic representation persisted throughout the whole process. The construction of Poisson s Model as hypotheses about the experiment carried out proved to be a viable and efficient strategy, guaranteeing relative easiness in the application the model in the most varied situations, including those with proximity with the Binomial Model; that result allows for the suggestion of the introduction of the mentioned model in the way it is presented, replacing the classical way, consisting of definition, example and exercises, or even, through the proximity with the Binomial Model. The use of a software proved to be efficient to expedite the representations and to make it easier for the visualization of properties; however, learning to handle the software cannot be simultaneous to learning the target content under the risk of compromising it. Pair work proved that information exchange, enriched and complemented by the backgrounds of the two individuals involved, allowed for the emergence of new questions and guaranteed greater reliability in the execution of the proposed tasks. / Esta tese é centrada no ensino e na aprendizagem do Modelo de Poisson, seu questinamento refere-se ao uso da Modelagem Matemática, das etapas a serem consideradas e dos resultados, tanto na interação didática como nas aquisições e erros dos alunos participantes. As hipóteses de que o trabalho em dupla, o uso do computador e o experimento realizado na prática pudessem favorecer o desenvolvimento do projeto foram admitidas, a fim de serem validadas, ou não. Para tal, uma seqüência de ensino, elaborada com base nas etapas de Modelagem Matemática de Henry, foi aplicada a um grupo de alunos do segundo ano de graduação em Engenharia Elétrica e Ciência da Computação de uma Instituição de Ensino Superior. No estudo, a metodologia adotada foi a Engenharia Didática que permite a validação das hipóteses pela confrontação entre as análises a priori e a posteriori e favorece o realinhamento das atividades durante o processo. As bases teóricas foram a praxeologia de Chevallard e o enfoque ontológico-semiótico da cognição e instrução matemática de Godino. A primeira norteou a análise dos livros didáticos, a elaboração e a apresentação das tarefas propostas na seqüência pretendida; a segunda fundamentou a determinação de elementos de significado do Modelo de Poisson para serem considerados no ensino e orientar a análise dos resultados, possibilitando a identificação dos conhecimentos adquiridos que estão conforme a pauta institucional e os que podem ser considerados erros de aprendizagem. A pesquisa permitiu concluir que, não só o uso da Modelagem Matemática é favorável ao estudo realizado, como também todas as etapas de modelagem puderam ser interpretadas, adaptadas e consideradas essenciais, para que os objetivos fossem atingidos, salientando-se que o experimento realizado deve ser cuidadosamente selecionado, a fim de servir de motivação aos sujeitos visados e, se possível, contemplar a interdisciplinaridade. Entre os diversos elementos de significado do Modelo de Poisson tomados como referência, muitos foram adquiridos pelo grupo de alunos participantes, embora algumas dificuldades relacionadas à utilização do aplicativo, à interpretação de termos do tipo: ao menos, no máximo, etc., e à representação simbólica persistiram durante todo o processo. A construção do Modelo de Poisson baseada nas hipóteses citadas sobre o experimento realizado mostrou ser uma estratégia viável e eficiente, garantindo relativa facilidade na aplicação do modelo nas mais variadas situações, inclusive, naquelas de aproximação ao Modelo Binomial. O resultado permite que se sugira a introdução do referido modelo nos moldes apresentados, em lugar do modo clássico com definição, exemplo e exercícios, ou ainda, por meio da aproximação ao Modelo Binomial. O uso de um aplicativo mostrou-se eficiente para agilizar as representações e facilitar a visualização de propriedades; no entanto, a aprendizagem da manipulação do aplicativo não pode concorrer simultaneamente com o estudo do conteúdo pretendido sob pena de comprometê-lo. O trabalho em dupla revelou que as trocas de informações, enriquecidas e complementadas pelas duas formações dos sujeitos envolvidos, permitiram o levantamento de novas questões e maior confiabilidade na realização das tarefas propostas.
112

Otimização do processo de aprendizagem da estrutura gráfica de Redes Bayesianas em BigData

FRANÇA, Arilene Santos de 20 February 2014 (has links)
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-07-31T13:38:32Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_OtimizacaoProcessoAprendizagem.pdf: 1776244 bytes, checksum: 70399c027bdcfb2e5676cb7cc2b4d049 (MD5) / Approved for entry into archive by Ana Rosa Silva (arosa@ufpa.br) on 2014-09-05T12:32:05Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_OtimizacaoProcessoAprendizagem.pdf: 1776244 bytes, checksum: 70399c027bdcfb2e5676cb7cc2b4d049 (MD5) / Made available in DSpace on 2014-09-05T12:32:05Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_OtimizacaoProcessoAprendizagem.pdf: 1776244 bytes, checksum: 70399c027bdcfb2e5676cb7cc2b4d049 (MD5) Previous issue date: 2014 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede. / Automation at data management and analysis has been a crucial factor for companies which need efficient solutions in an each more competitive corporate world. The explosion of the volume information, which has remained increasing in recent years, has demanded more and more commitment to seek strategies to manage and, especially, to extract valuable strategic informations from the use of data mining algorithms, which commonly need to perform exhausting queries at the database in order to obtain statistics that solve or optimize the parameters of the model of knowledge discovery selected; process which requires intensive computing to perform calculations and frequent access to the database. Given the effectiveness of uncertainty treatment, Bayesian networks have been widely used for this process, however, as the amount of data (records and/or attributes) increases, it becomes even more costly and time consuming to extract relevant information in a knowledge base. The goal of this work is to propose a new approach to optimization of the Bayesian Network structure learning in the context of BigData, by using the MapReduce process, in order to improve the processing time. To that end, it was generated a new methodology that includes the creation of an Intermediary Database, containing all the necessary probabilities to the calculations of the network structure. Through the analyzes presented at this work, it is shown that the combination of the proposed methodology with the MapReduce process is a good alternative to solve the scalability problem of the search frequency steps of K2 algorithm and, as a result, to reduce the response time generation of the network.
113

Modelagem da disponibilidade de uma unidade geradora da UHE-Tucuruí

MOREIRA, Pedro Igor Carvalho 04 July 2013 (has links)
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-11-12T16:11:38Z No. of bitstreams: 2 license_rdf: 22974 bytes, checksum: 99c771d9f0b9c46790009b9874d49253 (MD5) Dissertacao_ModelagemDisponibilidadeUnidade.pdf: 2938493 bytes, checksum: c9fb17fbdb7f0bba297ede0cc1d161b5 (MD5) / Approved for entry into archive by Ana Rosa Silva (arosa@ufpa.br) on 2014-11-13T11:48:58Z (GMT) No. of bitstreams: 2 license_rdf: 22974 bytes, checksum: 99c771d9f0b9c46790009b9874d49253 (MD5) Dissertacao_ModelagemDisponibilidadeUnidade.pdf: 2938493 bytes, checksum: c9fb17fbdb7f0bba297ede0cc1d161b5 (MD5) / Made available in DSpace on 2014-11-13T11:48:58Z (GMT). No. of bitstreams: 2 license_rdf: 22974 bytes, checksum: 99c771d9f0b9c46790009b9874d49253 (MD5) Dissertacao_ModelagemDisponibilidadeUnidade.pdf: 2938493 bytes, checksum: c9fb17fbdb7f0bba297ede0cc1d161b5 (MD5) Previous issue date: 2013 / Com o advindo do marco regulatório do Setor Elétrico Brasileiro, a partir de 2004, os agentes que atuam neste mercado têm experimentado um acirramento nas disputas por novos negócios, evidenciando um aumento de competitividade. A Disponibilidade dos Ativos Físicos e os Custos com Manutenção se apresentam como os pontos chave para a competitividade dos agentes. O presente trabalho tem por objetivo apresentar uma metodologia de Análise de Disponibilidade de Sistemas Reparáveis, durante as etapas de projeto ou de operação do sistema, contemplando a mensuração dos Custos com Manutenção versus o Desembolso com Aquisição para um nível esperado de desempenho. A metodologia para a Análise de Disponibilidade sugerida se utiliza da construção do Diagrama de Blocos do Sistema com respectivas descrições funcionais, exportação das informações para o formato de Árvore de Sucesso, composta de portas lógicas dos tipos "E" e "OU" as quais caracterizam um subsistema integrante do sistema principal. O analista pode reavaliar a topologia do sistema, agregando ou retirando redundâncias com a finalidade de ajustar o desempenho do projeto aos requisitos de Disponibilidade, Custo de Aquisição e Custos de Manutenção. Como resultados do trabalho foram identificadas lacunas normativas que definem a forma de controle do desempenho dos ativos, estabelecida uma sistemática de integração entre técnicas de modelagem de confiabilidade e disponibilidade, estabelecidos e incorporados indicadores de desempenho de Manutenção Programada em um agente do mercado, foram modelados e discutidos diferentes cenários para um Sistema de Circulação de Óleo de Mancal e foi aplicado o modelo a toda uma Unidade Geradora Hidráulica por meio da implementação computacional do modelo aos componentes críticos dos principais sistemas. / Since 2004, the regulatory rules in the Brazilian Electricity Sector has changed. The agents who act in this market have experienced a rise in new business disputes, showing an increase in competitiveness. The availability of physical assets and maintenance costs are presented as key points of these agents competitiveness. This work aims to present a methodology of Availability Analysis of Repairable Systems during the design or operational phases, covering the measurement of maintenance costs versus the acquisition costs to an expected performance level. The suggested methodology takes the System Block Diagram and exports to the Successful Tree Analysis format, composed by logic gates "AND" and "OR" where each represents a subsystem in the main system. The analyst may re-evaluate the system's topology, adding or removing redundancies in order to adjust the performance to the requirements of availability, acquisition and maintenance costs. As results of this work were identified gaps in the standards rules which defines how to control the assets performance, was established a systematic integration of modeling techniques for reliability and availability, performance indicators of Scheduled Maintenance were incorporated, different scenarios were modeled for an Oil Circulation System and was applied to an entire Hydraulic Generating Unit by modeling the critical components in the main systems.
114

Modelagem Bayesiana dos níveis máximos do Índice de Preços ao Consumidor

PORTES, Pablo Cescon 10 February 2017 (has links)
O Índice de Preços ao Consumidor Amplo (IPCA) é o índice utilizado pelo Banco Central do Brasil ao estabelecer suas metas inflacionárias. Por servir como uma referência de inflação, o IPCA é atentamente monitorado, tanto por investidores estrangeiros e brasileiros, quanto por gestores públicos. Sabe-se que uma inflação alta e descontrolada causa distorções e perdas econômicas no país, assim há um interesse por parte de administradores e gestores financeiros em prever a inflação máxima para um determinado período de tempo. Dessa forma, o objetivo do trabalho foi modelar os níveis máximos de IPCA, que podem ocorrer em um quadrimestre. A escolha de quadrimestres visa equiparar a análise com os intervalos entre as apresentações dos demonstrativos de cumprimento das metas fiscais por parte do Poder Executivo. Foi utilizada a distribuição Generalizada de Valores Extremos (do inglês Generalized Extreme Values - GEV) para modelagem. Para a estimação dos parâmetros da distribuição GEV utilizou-se o método da Máxima Verossimilhança e a Inferência Bayesiana. Na elicitação de informação para construção das distribuições a priori, foram utilizados dados de países economicamente semelhantes ao Brasil, a Rússia, China e Índia, os quais pertencem ao BRICS. Além disso, foram criadas diferentes combinações de distribuição a priori, usando informações desses países com diferentes estruturas de variância. Para avaliar qual melhor metodologia de estimação foram analisadas a acurácia e precisão das estimativas dos níveis máximos de inflação para determinados tempos de retorno. Os resultados permitiram observar que a abordagem Bayesiana, que utilizou como informação a média de dados dos países do BRICS para construção da distribuição a priori Normal Trivariada, levou a predições mais precisas e acuradas. / The Brazilian Consumer Price Index (CPI) is the index used by the Central Bank of Brazil in establishing its inflation targets. By serving as an inflation reference, the Brazilian CPI is closely monitored by foreign and Brazilian investors as well as by public managers. It is known that high and uncontrolled inflation causes distortions and economic losses in the country, so there is an interest on the part of managers and financial managers to predict maximum inflation for a certain period of time. Thus, the objective of the work was to model the maximum Brazilian CPI levels, which can occur in a four-month period. The choice of four-month periods aims to equate the analysis with the intervals between the presentations of the statements of compliance with the fiscal targets by the government. The Generalized Extreme Values (GEV) distribution was used for modeling. For the estimation of the parameters of the GEV distribution the maximum likelihood method and the Bayesian Inference were used. In the elicitation of information for the construction of the prior distributions, we used data from countries economically similar to Brazil: Russia, China and India, which belong to BRICS. In addition, different combinations of prior distribution were created, using information from these countries with different variance structures. In order to evaluate the best estimation methodology, the accuracy and precision of the estimates of the maximum inflation levels for certain return times were analyzed. The results showed that the Bayesian approach, which used as information the mean data of the BRICS countries for construction of the Normal Trivariate prior distribution, led to more accurate and accurate predictions. / Fundação de Amparo à Pesquisa do Estado de Minas Gerais - FAPEMIG
115

Contribuições à genética populacional via processos de Fleming-Viot / Some contributions to population genetics via Fleming-Viot processes

Silva, Telles Timóteo da 14 July 2006 (has links)
Made available in DSpace on 2015-03-04T18:50:48Z (GMT). No. of bitstreams: 1 Apresentacao.pdf: 199708 bytes, checksum: ce3c2b5e9db17dddd7a2684d9e5cac8b (MD5) Previous issue date: 2006-07-14 / O processo de Fleming-Viot é um processo de Markov cujo espaço de estado é um conjunto de medidas de propabilidade. As funções-amostras do processo representam as prováveis possibilidades de transformação das freqüencias de tipos genéticos presentes numa população ao longo do tempo. Obtido como solução de um problema de martingala bem posto para um operador linear construído de forma a modelar diversas características importantes no estudo da genética populacional, como mutação, seleção, deriva genética, entre outras, o processo de Fleming-Viot permite, por meio de uma abordagem matemática unificadora, tratar problemas de complexidade variada. No presente trabalho, estudamos s processs de Fleming-Viot com saltos, introduzidos por Hiraba. Interpretamos biologicamente esse saltos como mudanças abruptas que podem ocorrer, num curto espaço de tempo, durante a evolução de uma população de indivíduos, causadas por epidemias, desastres naturais ou outras catástrofes, e que levam a descontinuidades nas frequências dos tipos gênicos. Apresentamos uma forma de incluir um fator de seleção no processo com saltos, através da aplicação de uma transformação de medida do tipo Girsanov. Em seguida, fazemos uma análise do comportamento assintótico do processo utilizando técnicas de dualidade e acoplamento.
116

Teoria de precificação e hedging e o caso de uma opção com barreira / Theory of princing and hedging and the case of a Barrier option

Rosalino Junior, Estevão 17 June 2013 (has links)
Made available in DSpace on 2015-03-04T18:57:53Z (GMT). No. of bitstreams: 1 Estevao_MSc2013.pdf: 798745 bytes, checksum: 3a737b306d09e12a7beaa6d3f396c369 (MD5) Previous issue date: 2013-06-17 / Conselho Nacional de Desenvolvimento Cientifico e Tecnologico / We address the theory of no-arbitrage pricing of derivatives and hedging strategies. The continuous-time model of the underlying stock price that we consider is the Geometric Brownian Motion, which parameters (mean rate of return and volatility) are initially set as stochastic processes and, in the sequel, specified as deterministic functions of time or constant values. With a view to providing self-sufficiency for the text, we have included the necessary fundamental theory and derived the Partial Differential Equation (PDE) for the price of derivatives with payoffs that are functions of the time and of the stock price at maturity, while the stock is now governed by the local volatility model (in which the parameters are functions of time and of the stock price at each moment). Focusing the particular niche where parameters are, except for very mild constraints, arbitrary deterministic functions of time, we develop explicit formulae for both the price and the hedging strategy for an European call option, as well as the particular shape of the associated PDEs. The generalization of the above scenario corresponds to the main result of this thesis which, to the best of our knowledge, is new: we assume (as above) the model where parameters are arbitrary deterministic functions of time and an European call option with a moving barrier of a special sort - which we name discounted barrier. Still, we obtain explicit formulas for both the exact price and hedging strategy. The shape of the barrier option under consideration is attractive from the point of view of the dealer, since it is in fact constant if tested against the discounted risky asset price. Moreover, the riskless asset - which accounts for discounting - is the dealers reference for profit evaluation. Some tools employed in this work are the risk-neutral (or martingale) measure and an extension of the Reflection Principle for Brownian Motion. / Nós abordamos a teoria de preços livres de arbitragem de derivativos e estratégias de hedging. O modelo a tempo contínuo que consideramos para o preço das ações é o Movimento Browniano Geométrico, cujos parâmetros (taxa média de retorno e volatilidade) são inicialmente definidos como processos estocásticos, para daí serem especificados por funções determinísticas do tempo ou valores constantes. Com vistas a dar um cunho autossuficiente à dissertação, desenvolvemos a teoria de base e a Equação Diferencial Parcial (EDP) para o preço de derivativos cujos payoffs são funções do tempo e do preço da ação, ambos na expiração, enquanto que a ação é governada pelo modelo de volatilidade local (no qual os parâmetros são funções do tempo e do preço da ação a cada instante). No caso particular onde os parâmetros são, salvo restrições brandas, funções determinísticas arbitrárias do tempo, desenvolvemos fórmulas explícitas para o preço e para a estratégia de hedging para uma opção de compra Europeia, bem como a forma particular das EDPs associadas. A generalização do cenário acima constitui o resultado principal desta dissertação, novo na literatura: assumimos (como acima) o modelo onde os parâmetros são funções determinísticas arbitrárias do tempo e uma opção de compra Europeia com uma barreira móvel de um tipo específico - a qual chamamos barreira descontada. Ainda assim, obtemos fórmulas explícitas tanto para o preço quanto para a estratégia de hedging. O formato da barreira móvel considerada é atrativo do ponto de vista prático de mercado, uma vez que é, de fato, constante se testada contra o preço descontado do ativo de risco. Ademais, é em relação ao ativo sem risco - que dita o desconto - que os dealers aferem seus lucros. Algumas ferramentas empregadas neste trabalho são a medida risco-neutro (medida martingale) e uma extensão do Princípio da Reflexão para o Movimento Browniano.
117

Control and filtering for continuous-time Markov jump linear systems with partial mode information

Rodrigues , Caio César Graciani 10 April 2017 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-08-10T18:45:47Z No. of bitstreams: 1 tese_caio_cesar_graciani_rodrigues.pdf: 1550607 bytes, checksum: 740cf1e87f2a897b734accc7abd6ec11 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-08-10T18:45:57Z (GMT) No. of bitstreams: 1 tese_caio_cesar_graciani_rodrigues.pdf: 1550607 bytes, checksum: 740cf1e87f2a897b734accc7abd6ec11 (MD5) / Made available in DSpace on 2017-08-10T18:46:07Z (GMT). No. of bitstreams: 1 tese_caio_cesar_graciani_rodrigues.pdf: 1550607 bytes, checksum: 740cf1e87f2a897b734accc7abd6ec11 (MD5) Previous issue date: 2017-04-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) / Over the past few decades, the study of systems subjected to abrupt changes in their structures has consolidated as a significant area of research, due, in part, to the increasing importance of dealing with the occurrence of random failures in complex systems. In this context, Markov jump linear system (MJLS) comes up as an approach of central interest, as a means of representing these dynamics. Among the numerous works that seek to establish design methods for control and filtering considering this class of systems, the scarcity of literature related to the partial observation scenarios is noticeable. This thesis features contributions to the H1 control and filtering for continuous-time MJLS with partial mode information. In order to overcome the challenge regarding the lack of information of the current state of the Markov chain, we use a detector-based formulation. In this formulation, we assume the existence of a detector, available at all times, which provides partial information about the operating mode of the jump process. A favorable feature of this strategy is that it allows us to recover (without being limited to) some recent results of partial information scenarios in which we have an explicit solution, such as the cases of complete information, mode-independent and cluster observations. Our results comprise a new bounded real lemma followed by the design of controllers and filters driven only by the informations given by the detector. Both, the H1 analysis and the design methods presented are established through the solutions of linear matrix inequalities. In addition, numerical simulations are also presented encompassing the H1 performance for particular structures of the detector process. From an application point of view, we highlight some examples related to the linearized dynamics for an unmanned aerial vehicle. / Nas últimas décadas, o estudo de sistemas cujas estruturas estão sujeitas a mudanças abruptas de comportamento tem se consolidado como uma significante área de pesquisa, devido, em parte, pela importância crescente de lidar com a ocorrência de falhas aleatórias em sistemas complexos. Neste contexto, os sistemas lineares com salto Markoviano (SLSM) surgem como uma abordagem de interesse central, como um meio de representar estas dinâmicas. Dentre os inúmeros trabalhos que buscam estabelecer técnicas de controle e filtragem considerando esta classe de sistemas, a escassez de literatura relacionada ao cenário de observações parciais é perceptível. Esta tese apresenta novos resultados de controle e filtragem H1 para SLSM a tempo contínuo e observações parciais no modo de operação. A fim de superar o desafio quanto a falta de informações do atual estado da cadeia de Markov, utilizamos uma formulação baseada em um detector. Com esta abordagem, assumimos a existência de um detector, disponível em todo instante de tempo, que fornece informações a respeito do modo de operação do processo de salto. Uma favorável característica desta estratégia é a de nos possibilitar o resgate (sem estar-se limitado a eles) de alguns resultados recentes dos cenários de informações parciais nos quais temos uma solução explícita, como os casos de informações completas, independentes do modo e cluster de observações. Os nossos resultados compreendem um novo bounded real lemma seguido do projeto de controladores e filtros que usam apenas as informações do detector. Tanto a análise H1 quanto os métodos de projeto apresentados são estabelecidos através da soluções de inequações matriciais lineares. Adicionalmente, também são apresentadas simulações numéricas que mostram a performance H1 para estruturas particulares do detector. Sob o ponto de vista de aplicações, destacamos os exemplos relacionados a dinâmicas linearizadas para um avião aéreo não tripulado.
118

Finite dimensional optimal linear mean square filter for continuos time Markovian jump linear systems

Vergés, Fortià Vila 24 February 2017 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2018-06-27T12:31:36Z No. of bitstreams: 1 Dissertacao_final_Fortia.pdf: 758629 bytes, checksum: 6b31d1df1ed8f464b298cce7e1ee4180 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2018-06-27T12:31:54Z (GMT) No. of bitstreams: 1 Dissertacao_final_Fortia.pdf: 758629 bytes, checksum: 6b31d1df1ed8f464b298cce7e1ee4180 (MD5) / Made available in DSpace on 2018-06-27T12:32:06Z (GMT). No. of bitstreams: 1 Dissertacao_final_Fortia.pdf: 758629 bytes, checksum: 6b31d1df1ed8f464b298cce7e1ee4180 (MD5) Previous issue date: 2017-02-24 / Fundação Carlos Chagas Filho de Amparo à Pesquisa do Estado do Rio de Janeiro (FAPERJ) / Stochastic differential equations with Markovian jump parameters constitute one of the most important class of hybrid dynamical systems, which has been extensively used for the modeling of dynamical systems which are subject to abrupt changes in their structure. The abrupt changes can be due, for instance, to abrupt environmental disturbances, component failure, volatility in economic systems, changes in subsystems interconnections, abrupt changes in the operation of a nonlinear plant, etc. This can be found, for instance, in aircraft control systems, robot systems, large flexible structure for space station, etc. We shall be particularly interested in the linear class which is dubbed in the literature as the class of Markov jump linear systems (MJLS). The jump mechanism is modeled by a Markov process, which is also known in the literature as the operation mode. The dissertation address the filtering problem of the operation mode for the class of MJLS. Previous result in the literature on this problem has been obtained by Wonham, which has shown the existence of an optimal nonlinear filter for this problem. The main hindrance with Wonham’s result, in the context of the control problem with partial observation of operation mode, is that it introduces a great deal of nonlinearity in the Hamilton-Jacobi- Belman equation, which makes it difficult to get an explicit closed solution for the control problem. Motivated by this, the main contribution of this dissertation is to devise an optimal linear filter for the mode operation, which we believe could be more favorable in the solution of the control problem with partial observations. In addition, relying on Murayama’s stochastic numerical method and the results of Yuan and Mao, we carry out simulation of Wonham’s filter, and the one devised in the dissertation, in order to compare their performances. / As equações diferenciais estocáticas com salto Markoviano constituem uma das clases de sistemas dinâmicos híbridos mais importantes, e tem sido muito usados para modelar sistemas sujeitos a mudanças abruptas na sua estructura. Essas mudanças podem ser devido a, por exemplo, perturbações ambientais, falhas em componentes, volatilidade em sistemas econômicos, mudanças em interconexões de subsistemas, mudanças abruptas em operações de plantas não lineares, etc. Estas falhas podem ser encontradas em sistemas de controle para aeronaves, sistemas robóticos, estructuras grandes e flexíveis em estações espaciais, etc. Nós estamos especialmente interessados na clase de sistemas lineares que é referenciada na literatura como sistemas lineares com salto Markoviano (SLSM). O mecanismo de salto é modelado por um processo de Markov, que é conhecido na literatura como modo de operação do sistema. Essa dissertação visa o problema de filtragem para o modo de operação do sistema linear com salto. Na literatura pode-se encontrar resultados já obtidos para esse problema como é o caso do filtro ótimo não linear deduzido por Wonham. Mas no contexto de controle ótimo com observações parciais do modo de operação, o filtro de Wonham introduz não linearidades na equação de Hamilton-Jacobi-Belman, fazendo com que seja muito complexo obter uma solução fechada para o problema de controle. A principal motivação desta dissertação é deduzir o filtro ótimo linear para o modo de operação, já que esta pode ser uma solução mais favorável para o problema de controle ótimo. Finalmente, usando o método numérico para equações diferenciais estocásticas de Euler-Murayama e o resultado de Yuan e Mao, realizamos a simulação do filtro de Wonham tal como o filtro deduzido neste trabalho, com o objetivo de comparar as respectivas performances.
119

Abordagem probabilística para caracterização do sistema de marcação de sequenciamento multiplex na plataforma ABI SOLID

LOBATO, Fábio Manoel França 01 July 2011 (has links)
Submitted by Samira Prince (prince@ufpa.br) on 2012-06-01T14:22:25Z No. of bitstreams: 2 Dissertacao_AbordagemProbabilisticaCaracterizacao.pdf: 2216925 bytes, checksum: 41db7a9e13836866a105b019e2d7ea99 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Approved for entry into archive by Samira Prince(prince@ufpa.br) on 2012-06-01T14:23:08Z (GMT) No. of bitstreams: 2 Dissertacao_AbordagemProbabilisticaCaracterizacao.pdf: 2216925 bytes, checksum: 41db7a9e13836866a105b019e2d7ea99 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) / Made available in DSpace on 2012-06-01T14:23:08Z (GMT). No. of bitstreams: 2 Dissertacao_AbordagemProbabilisticaCaracterizacao.pdf: 2216925 bytes, checksum: 41db7a9e13836866a105b019e2d7ea99 (MD5) license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Previous issue date: 2011 / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / Os sequenciadores de nova geração como as plataformas Illumina e SOLiD geram uma grande quantidade de dados, comumente, acima de 10 Gigabytes de arquivos-texto. Particularmente, a plataforma SOLiD permite o sequenciamento de múltiplas amostras em uma única corrida (denominada de corrida multiplex) por meio de um sistema de marcação chamado Barcode. Esta funcionalidade requer um processo computacional para separação dos dados por amostra, pois, o sequenciador fornece a mistura de todas amostras em uma única saída. Este processo deve ser seguro a fim de evitar eventuais embaralhamentos que possam prejudicar as análises posteriores. Neste contexto, o presente trabalho propõe desenvolvimento de um modelo probabilístico capaz de caracterizar sistema de marcação utilizado em sequenciamentos multiplex. Os resultados obtidos corroboraram a suficiência do modelo obtido, o qual permite, dentre outras coisas, identificar faltas em algum passo do processo de sequenciamento; adaptar e desenvolver de novos protocolos para preparação de amostras, além de atribuir um Grau de Confiança aos dados gerados e guiar um processo de filtragem que respeite as características de cada sequenciamento, não descartando sequências úteis de forma arbitrária. / The next generation sequencers such as Illumina and SOLiD platforms generate a large amount of data, commonly above 10 Gigabytes of text files. Particularly, the SOLiD platform allows the sequencing of multiple samples in a single run (called multiplex run) through a marking system called Barcode. This feature requires a computational process for separation of data per sample, therefore, the sequencer provides a mixture of all samples in a single output. This process must be secure to avoid any harm that may scramble further analysis. In this context, this dissertation proposes development of a probabilistic model capable of characterizing the marking system used in multiplex sequencing. The results corroborate the adequacy of the model obtained, which allows, among other things, identify faults in some step in the sequencing process, adapt and develop new protocols for sample preparation, and assign a grade to the reliability of data generated and guide a filtering process that respects the characteristics of each sequence, without discarding sequences useful in an arbitrary manner.
120

Métododos de identificação fuzzy para modelos autoregressivos sazonais madiante a função de autocorrelação estendida

CARVALHO JÚNIOR, José Gracildo de 13 December 2016 (has links)
Submitted by camilla martins (camillasmmartins@gmail.com) on 2017-04-24T13:29:49Z No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_MetodosIdentificacaoFuzzy.pdf: 2802104 bytes, checksum: 73352d2962b86336990faec404300aac (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-04-24T16:59:13Z (GMT) No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_MetodosIdentificacaoFuzzy.pdf: 2802104 bytes, checksum: 73352d2962b86336990faec404300aac (MD5) / Made available in DSpace on 2017-04-24T16:59:13Z (GMT). No. of bitstreams: 3 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_MetodosIdentificacaoFuzzy.pdf: 2802104 bytes, checksum: 73352d2962b86336990faec404300aac (MD5) Previous issue date: 2016-12-13 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Neste estudo, é proposta uma estrategia baseada na metodologia fuzzy para a melhoria do desempenho das previsões de dados mediante um modelo de série temporal. Esta metodologia é concebida para modelagem de processos autoregressivos sazonais de média móvel e pode ser adotada sobre diversas aplicações no mundo real. Por meio da abordagem híbrida, baseada em uma versão da função de autocorrelação fuzzy, a interpolação e as capacidades de generalização de sistemas fuzzy foram exploradas para se obter uma previsão robusta, mesmo considerando séries de curta ou longa duração. A fim de aumentar a precisão do algoritmo de identicação proposto, vários parâmetros de desempenho foram testados e otimizados por simulações computacionais. Os seguintes parâmetros foram considerados nesse processo: o comprimento de trajetória da série histórica, o número de conjuntos fuzzy, e o limite para ativação do suporte dos conjuntos fuzzy triangulares. Observou-se que a função de pertinência triangular contribuiu para a melhoria do desempenho no modelo de previsão. Para demonstrar a eficácia da metodologia proposta, foram implementados quatro estudos de caso a partir de dados disponíveis na literatura. Os resultados confirmaram o bom desempenho do algoritmo proposto, permitindo a obtencão de um erro de previsão pequeno, sobretudo, em comparação com metodologias de identificação parametrica consolidadas na literatura. As projeções produzidas pelo novo método proposto, quando submetidas ao conceito de intervalo de confianca fuzzy, demonstraram uma precisão satisfatoria. / In this study, a fuzzy-based strategy for improvement of forecasting performance in data time series analysis is proposed. The designed methodology is target to seasonal autoregressive moving average processes modelling and can be applied to an wide range of real world applications. By means of hybrid approach based on a fuzzy version of correlation functions, the interpolating and the generalization capabilities of fuzzy systems are exploited in order to obtain a robust forecasting, even considering series with missing data points. In order to increase the algorithm accuracy, several design parameters were tested and optimized by computational tests. The following parameters are considered in this process: the length of the trajectory of the time series, the number of fuzzy sets, and the limit for activation of the support of the triangular fuzzy sets. It was observed that the membership function of triangular form lead to improved forecasting performance. A simulation to evaluate the accuracy of the forecasting of a fuzzy seasonal autoregressive model is described. To demonstrate the eectiveness of the proposed methodology, four case studies on data from some public data base was carried-out. The results conrm the improved performance of the proposed algorithm, allowing to obtain a reduced forecasting error in comparison to a conventional statistical methodology and fuzzy, for instance. The projections produced by the new method when subjected to fuzzy condence interval analysis showed satisfactory accuracy.

Page generated in 0.3426 seconds