• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 149
  • 19
  • 8
  • 2
  • 1
  • Tagged with
  • 179
  • 123
  • 55
  • 52
  • 43
  • 41
  • 40
  • 35
  • 31
  • 29
  • 28
  • 28
  • 28
  • 24
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Medidas de risco e seleção de portfolios / Risk measures and portfolio selection

Magro, Rogerio Correa 15 February 2008 (has links)
Orientador: Roberto Andreani / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-10T15:35:32Z (GMT). No. of bitstreams: 1 Magro_RogerioCorrea_M.pdf: 1309841 bytes, checksum: 3935050b45cf1bf5bbba46ac64603d72 (MD5) Previous issue date: 2008 / Resumo: Dado um capital C e n opções de investimento (ativos), o problema de seleção de portfolio consiste em aplicar C da melhor forma possivel para um determinado perfil de investidor. Visto que, em geral, os valores futuros destes ativos não são conhecidos, a questão fundamental a ser respondida e: Como mensurar a incerteza? No presente trabalho são apresentadas tres medidas de risco: O modelo de Markowitz, o Value-at-Risk (VaR) e o Conditional Value-At-Risk (CVaR). Defendemos que, sob o ponto de vista teorico, o Valor em Risco (VaR) e a melhor dentre as tres medidas. O motivo de tal escolha deve-se ao fato de que, para o VaR, podemos controlar a influencia que os cenários catastroficos possuem sobre nossas decisões. Em contrapartida, o processo computacional envolvido na escolha de um portfolio ótimo sob a metodologia VaR apresenta-se notadamente mais custoso do que aqueles envolvidos nos calculos das demais medidas consideradas. Dessa forma, nosso objetivo e tentar explorar essa vantagem computacional do Modelo de Markowitz e do CVaR no sentido de tentar aproximar suas decisões aquelas apontadas pela medida eleita. Para tal, consideraremos soluções VaR em seu sentido original (utilizando apenas o parametro de confiabilidade ao buscar portfolios otimos) e soluções com controle de perda (impondo uma cota superior para a perda esperada) / Abstract: Given a capital C and n investment options (assets), the problem of portfolio selection consists of applying C in the best possible way for a certain investor profile. Because, in general, the future values of these assets are unknown, the fundamental question to be answered is: How to measure the uncertainty? In the present work three risk measures are presented: The Markowitz¿s model, the Value-at-Risk (VaR) and the Conditional Value-at-Risk (CVaR). We defended that, under the theoretical point of view, the Value in Risk (VaR) is the best amongst the three measures. The reason of such a choice is due to the fact that, for VaR, we can control the influence that the catastrophic sceneries possess about our decisions. In the other hand, the computational process involved in the choice of a optimal portfolio under the VaR methodology comes notedly more expensive than those involved in the calculations of the other considered measures. In that way, our objective is to try to explore that computational advantage of the Markowitz¿s Model and of CVaR in the sense of trying to approach its decisions the those pointed by the elect measure. For such, we will consider VaR solutions in its original sense (just using the confidence level parameter when looking for optimal portfolios) and solutions with loss control (imposing a superior quota for the expected loss) / Mestrado / Otimização / Mestre em Matemática Aplicada
172

Controle contextual com o procedimento go/no-go com estímulos compostos / Contextual control with the go/no-go procedure with compound stimuli

Rafael Diego Modenesi 19 April 2013 (has links)
O Controle Contextual é descrito a partir de (a) uma contingência de cinco termos (Sx-Sc-Sd- R-Sr) em que o estímulo contextual (Sx) exerce controle condicional sobre as discriminações condicionais e (b) permite que um estímulo participe de mais de uma classe de equivalência sem que haja a fusão das classes. O matching-to-sample é o procedimento mais utilizado para investigar o controle contextual. O objetivo deste estudo foi avaliar se o procedimento go/nogo com estímulos compostos, no qual não é possível identificar as funções condicional e discriminativa, produziria classes de equivalência que compartilham estímulos. Se estas classes fossem produzidas, apenas uma parte da definição de controle contextual (b) seria atestada. Seis universitários realizaram uma tarefa nas fases de treino na qual respostas aos compostos A1C1, A2C2, B1D1, B2D2, X1Y1, X2Y2, X1A1B1, X1A2B2, X2A1B2, X2A2B1 eram seguidas, intermitentemente, por 10 pontos e respostas aos compostos A1C2, A2C1, B1D2, B2D1, X1Y2, X2Y1, X1A1B2, X1A2B1, X2A1B1, X2A2B2 não eram seguidas de consequências. Os estímulos eram formas abstratas. Para se atestar o estabelecimento do controle contextual, os participantes deveriam responder aos compostos Y1C1D1, Y1C2D2, Y2C1D2, Y2C2D1 e não deveriam responder aos compostos Y1C1D2, Y1C2D1, Y2C1D1, Y2C2D2. Este padrão de respostas indicaria a formação de quatro classes de equivalência que compartilham estímulos: X1A1B1Y1C1D1, X1A2B2Y1C2D2, X2A1B2Y2C1D2, X2A2B1Y2C2D1. Quatro dos seis participantes apresentaram desempenhos indicando que é possível estabelecer o controle contextual a partir do procedimento go/no-go com estímulos compostos, sem especificar diferentes funções (e.g., discriminativa, condicional e contextual) para os estímulos envolvidos nestas discriminações. Em função desses resultados, parte (a) da definição de controle contextual mais recorrentemente empregada pode ser questionada / Contextual control is described from (a) a five-term contingency in which the contextual stimulus (Sx) exerts conditional control over conditional discriminations (Sctx Sc Sd R Sr) and (b) allows one stimulus to participate in more than one equivalence class, without merging them into one. Matching-to-sample is the mostly employed procedure to investigate the contextual control. The presented study aimed to evaluate whether a go/no-go procedure that present stimuli in the same manner, without specifying any different stimuli functions, would produce equivalence classes that share stimuli. If equivalence classes could be established with this procedure, only one part of contextual control definition (b) would be met. Six undergraduate were submitted to a task in Training Phase in which responses to A1C1, A2C2, B1D1, B2D2, X1Y1, X2Y2, X1A1B1, X1A2B2, X2A1B2, X2A2B1 compound stimuli were intermittently followed by 10 points, and responses to A1C2, A2C1, B1D2, B2D1, X1Y2, X2Y1, X1A1B2, X1A2B1, X2A1B1, X2A2B2 were not. Two or three abstract forms composed compound stimuli. In Phase III, to certify the establishment of contextual control participants should respond to Y1C1D1, Y1C2D2, Y2C1D2, Y2C2D1 compounds and did not respond to Y1C1D2, Y1C2D1, Y2C1D1, Y2C2D2 compounds. This pattern of responses also indicates the formation of four equivalence classes: X1A1B1Y1C1D1, X1A2B2Y1C2D2, X2A1B2Y2C1D2, X2A2B1Y2C2D1. Four of six participants showed the establishment of contextual control using a go/no-go procedure that do not specify any specific functions for the stimuli. These results indicate that part (a) of the contextual control definition currently used can be questioned
173

Seleção de características e predição intrinsecamente multivariada em identificação de redes de regulação gênica / Feature selection and intrinsically multivariate prediction in gene regulatory networks identification

David Corrêa Martins Junior 01 December 2008 (has links)
Seleção de características é um tópico muito importante em aplicações de reconhecimento de padrões, especialmente em bioinformática, cujos problemas são geralmente tratados sobre um conjunto de dados envolvendo muitas variáveis e poucas observações. Este trabalho analisa aspectos de seleção de características no problema de identificação de redes de regulação gênica a partir de sinais de expressão gênica. Particularmente, propusemos um modelo de redes gênicas probabilísticas (PGN) que devolve uma rede construída a partir da aplicação recorrente de algoritmos de seleção de características orientados por uma função critério baseada em entropia condicional. Tal critério embute a estimação do erro por penalização de amostras raramente observadas. Resultados desse modelo aplicado a dados sintéticos e a conjuntos de dados de microarray de Plasmodium falciparum, um agente causador da malária, demonstram a validade dessa técnica, tendo sido capaz não apenas de reproduzir conhecimentos já produzidos anteriormente, como também de produzir novos resultados. Outro aspecto investigado nesta tese é o fenômeno da predição intrinsecamente multivariada (IMP), ou seja, o fato de um conjunto de características ser um ótimo caracterizador dos objetos em questão, mas qualquer de seus subconjuntos propriamente contidos não conseguirem representá-los de forma satisfatória. Neste trabalho, as condições para o surgimento desse fenômeno foram obtidas de forma analítica para conjuntos de 2 e 3 características em relação a uma variável alvo. No contexto de redes de regulação gênica, foram obtidas evidências de que genes alvo de conjuntos IMP possuem um enorme potencial para exercerem funções vitais em sistemas biológicos. O fenômeno conhecido como canalização é particularmente importante nesse contexto. Em dados de microarray de melanoma, constatamos que o gene DUSP1, conhecido por exercer função canalizadora, foi aquele que obteve o maior número de conjuntos de genes IMP, sendo que todos eles possuem lógicas de predição canalizadoras. Além disso, simulações computacionais para construção de redes com 3 ou mais genes mostram que o tamanho do território de um gene alvo pode ter um impacto positivo em seu teor de IMP com relação a seus preditores. Esta pode ser uma evidência que confirma a hipótese de que genes alvo de conjuntos IMP possuem a tendência de controlar diversas vias metabólicas cruciais para a manutenção das funções vitais de um organismo. / Feature selection is a crucial topic in pattern recognition applications, especially in bioinformatics, where problems usually involve data with a large number of variables and small number of observations. The present work addresses feature selection aspects in the problem of gene regulatory network identification from expression profiles. Particularly, we proposed a probabilistic genetic network model (PGN) that recovers a network constructed from the recurrent application of feature selection algorithms guided by a conditional entropy based criterion function. Such criterion embeds error estimation by penalization of rarely observed patterns. Results from this model applied to synthetic and real data sets obtained from Plasmodium falciparum microarrays, a malaria agent, demonstrate the validity of this technique. This method was able to not only reproduce previously produced knowledge, but also to produce other potentially relevant results. The intrinsically multivariate prediction (IMP) phenomenon has been also investigated. This phenomenon is related to the fact of a feature set being a nice predictor of the objects in study, but all of its properly contained subsets cannot predict such objects satisfactorily. In this work, the conditions for the rising of this phenomenon were analitically obtained for sets of 2 and 3 features regarding a target variable. In the gene regulatory networks context, evidences have been achieved in which target genes of IMP sets possess a great potential to execute vital functions in biological systems. The phenomenon known as canalization is particularly important in this context. In melanoma microarray data, we verified that DUSP1 gene, known by having canalization function, was the one which composed the largest number of IMP gene sets. It was also verified that all these sets have canalizing predictive logics. Moreover, computational simulations for generation of networks with 3 or more genes show that the territory size of a target gene can contribute positively to its IMP score with regard to its predictors. This could be an evidence that confirms the hypothesis stating that target genes of IMP sets are inclined to control several metabolic pathways essential to the maintenance of the vital functions of an organism.
174

[en] MODEL FOR CALCULATING THE NEED FOR CAPITAL TO COVER THE UNDERWRITING RISKS OF NON-LIFE OPERATIONS / [pt] MODELO DE CÁLCULO DA NECESSIDADE DE CAPITAL PARA COBRIR OS RISCOS DE SUBSCRIÇÃO DE OPERAÇÕES NÃO VIDA

EDUARDO HENRIQUE ALTIERI 03 May 2019 (has links)
[pt] Importante questão que se coloca atualmente é a capacidade de medição do volume de capital necessário, às sociedades seguradoras, para fazer frente aos diversos tipos de risco que tais companhias suportam no exercício de suas atividades. Esse volume de capital necessário deve ser tal que permita à companhia suportar variabilidades no negócio. As motivações para o desenvolvimento de modelos matemáticos visando à determinação desta necessidade de capital são tanto a preocupação das próprias companhias com a sua gestão de risco, como também aspectos relacionados ao estabelecimento de requerimentos de capital exigidos pelo regulador de seguro às sociedades seguradoras para fazer frente aos riscos suportados. Entre tais riscos, encontra-se a categoria dos riscos de subscrição, relacionados diretamente à operação central de uma seguradora (design de produto, precificação, processo de aceitação, regulação de sinistros e provisionamento). Esta dissertação apresenta uma proposta de modelo para determinação do volume necessário de capital para fazer frente aos riscos de subscrição, na qual tal categoria de riscos é segregada nos riscos de provisão de sinistros (relativos aos sinistros ocorridos e, assim, relacionados às provisões de sinistros) e nos riscos de emissão/precificação (relativos aos sinistros à ocorrer num horizonte de tempo de 1 ano, considerando novos negócios). Em especial, o modelo proposto utiliza processos de simulação que levam em consideração a estrutura de dependência das variáveis envolvidas e linhas de negócio, fazendo uso do conceito de cópulas condicionais. / [en] Important question that arises today is the ability to measure the amount of capital necessary to insurance companies, to cope with various types of risk that these companies support in performing their activities. This volume of capital required must be such as to enable the company to bear variability in business. The motivations for the development of mathematical models aimed at the determination of those capital needs are both the concern of companies with their own risk management, as well as aspects related to establishing capital requirements required by the insurance regulator to insurance companies to face the risks borne. Among such risks, is the category of underwriting risks, directly related to the core operation of an insurance company (product design, pricing, underwriting process, loss settlement and provisioning). This dissertation proposes a model for determining the appropriate amount of capital to cope with the underwriting risks, where such risk category is segregated in reserving risks (relative to incurred events) and pricing risks (relative to events occurring in the time horizon of 1 year, considering new businesses). In particular, the proposed model uses simulation processes that take into account the dependence structure of the variables involved and lines of business, making use of the concept of conditional copulas.
175

Eliminação de parâmetros perturbadores em um modelo de captura-recaptura

Salasar, Luis Ernesto Bueno 18 November 2011 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 4032.pdf: 1016886 bytes, checksum: 6e1eb83f197a88332f8951b054c1f01a (MD5) Previous issue date: 2011-11-18 / Financiadora de Estudos e Projetos / The capture-recapture process, largely used in the estimation of the number of elements of animal population, is also applied to other branches of knowledge like Epidemiology, Linguistics, Software reliability, Ecology, among others. One of the _rst applications of this method was done by Laplace in 1783, with aim at estimate the number of inhabitants of France. Later, Carl G. J. Petersen in 1889 and Lincoln in 1930 applied the same estimator in the context of animal populations. This estimator has being known in literature as _Lincoln-Petersen_ estimator. In the mid-twentieth century several researchers dedicated themselves to the formulation of statistical models appropriated for the estimation of population size, which caused a substantial increase in the amount of theoretical and applied works on the subject. The capture-recapture models are constructed under certain assumptions relating to the population, the sampling procedure and the experimental conditions. The main assumption that distinguishes models concerns the change in the number of individuals in the population during the period of the experiment. Models that allow for births, deaths or migration are called open population models, while models that does not allow for these events to occur are called closed population models. In this work, the goal is to characterize likelihood functions obtained by applying methods of elimination of nuissance parameters in the case of closed population models. Based on these likelihood functions, we discuss methods for point and interval estimation of the population size. The estimation methods are illustrated on a real data-set and their frequentist properties are analised via Monte Carlo simulation. / O processo de captura-recaptura, amplamente utilizado na estimação do número de elementos de uma população de animais, é também aplicado a outras áreas do conhecimento como Epidemiologia, Linguística, Con_abilidade de Software, Ecologia, entre outras. Uma das primeiras aplicações deste método foi feita por Laplace em 1783, com o objetivo de estimar o número de habitantes da França. Posteriormente, Carl G. J. Petersen em 1889 e Lincoln em 1930 utilizaram o mesmo estimador no contexto de popula ções de animais. Este estimador _cou conhecido na literatura como o estimador de _Lincoln-Petersen_. Em meados do século XX muitos pesquisadores se dedicaram à formula ção de modelos estatísticos adequados à estimação do tamanho populacional, o que causou um aumento substancial da quantidade de trabalhos teóricos e aplicados sobre o tema. Os modelos de captura-recaptura são construídos sob certas hipóteses relativas à população, ao processo de amostragem e às condições experimentais. A principal hipótese que diferencia os modelos diz respeito à mudança do número de indivíduos da popula- ção durante o período do experimento. Os modelos que permitem que haja nascimentos, mortes ou migração são chamados de modelos para população aberta, enquanto que os modelos em que tais eventos não são permitidos são chamados de modelos para popula- ção fechada. Neste trabalho, o objetivo é caracterizar o comportamento de funções de verossimilhança obtidas por meio da utilização de métodos de eliminação de parâmetros perturbadores, no caso de modelos para população fechada. Baseado nestas funções de verossimilhança, discutimos métodos de estimação pontual e intervalar para o tamanho populacional. Os métodos de estimação são ilustrados através de um conjunto de dados reais e suas propriedades frequentistas são analisadas via simulação de Monte Carlo.
176

Compreensão e produção de fala em crianças com deficiência auditiva pré-lingual usuárias de implante coclear / Speech comprehension and production in prelingually deaf children with cochlear implants

Golfeto, Raquel Melo 01 March 2010 (has links)
Made available in DSpace on 2016-06-02T19:44:06Z (GMT). No. of bitstreams: 1 2929.pdf: 11352418 bytes, checksum: 28d64060a63b9aea98de01a8294ef436 (MD5) Previous issue date: 2010-03-01 / Universidade Federal de Minas Gerais / Acquisitions of verbal functions in prelingually deaf children have shown progress in the listener s behavior, but less significant gains in the speaker s behavior. The aim of this study was to develop and assess the effectiveness of teaching procedures designed to develop listening comprehension and speech intelligibility in this population. Three studies were conducted. In the first one, subjects were taught conditional auditory-visual relations between dictated words and pictures, and between dictated words and printed words, along three successive learning problems. Two teenage girls with extensive sensory deprivation periods and late cochlear implants learned the auditory-visual relations and showed the emergence of equivalence relations, progressing from the learning relations with conventional words to learning relations between pseudo-words and abstract pictures. Study 2 investigated the effects of a curriculum of conditional discriminations between dictated words and pictures and between dictated and printed words to preschoolers and children acquiring literacy, thus extending the amount of experience with successive sets of words, in relation to Study 1. A multiple baseline design among word sets assessed the curriculum effects. Five of the seven participants learned the conditional discrimination and presented the emergence of equivalence relations, echoic behavior and naming pictures and printed words. Speech production scores, however, lag behind scores in matching tasks. In Study 3 participants learned conditional discriminations between dictated sentences and videoclip scenes. Different sentences were dictated, warranting overlapping of sentence elements, seeking to engender recombinative repertoires (in identifying new scenes formed by recombination of subject, verb and object of previous sentences). Participants demonstrated recombinative generalization and produced intelligible sentences. Results indicate the potential of the teaching procedures for the (re)habilitation of implant users. The persistence of the imbalance between speech production and auditory comprehension suggests important issues concerning the ontogenesis of the listener and speaker s repertoire. / As aquisições de funções verbais em crianças com surdez pré-lingual usuárias de implante coclear têm mostrado progressos no comportamento de ouvinte e poucos ganhos no comportamento de falante. O presente estudo teve por objetivo desenvolver e avaliar procedimentos de ensino para ampliar a compreensão e a inteligibilidade nessa população. Foram conduzidos três estudos. No primeiro foram ensinadas relações condicionais auditivo-visuais entre palavras ditadas e figuras e entre palavras ditadas e palavras impressas, em três problemas sucessivos de aprendizagem. Duas adolescentes com longo período de privação sensorial e implante tardio aprenderam as relações auditivo-visuais e formaram classes de estímulos equivalentes, progredindo da aprendizagem de palavras convencionais até a de relações entre pseudo-palavras e figuras abstratas. O Estudo 2 investigou os efeitos do ensino de um currículo de discriminações condicionais entre palavras ditadas e figuras e entre palavras ditadas e impressas para pré-escolares e crianças em alfabetização. Foram empregados vários conjuntos de estímulos, cada um com três elementos; um delineamento de linha de base múltipla entre os conjuntos avaliou os efeitos do ensino. Cinco dos sete participantes aprenderam as relações condicionais e mostraram emergência de novas relações (formação de classes, comportamento ecóico e nomeação de figuras e de palavras impressas) em tarefas de seleção e na produção de fala (com escores mais baixos). No Estudo 3 foram ensinadas discriminações condicionais entre sentenças ditadas e vídeos. As sentenças apresentavam sujeito, verbo e objeto. O ensino de diferentes sentenças envolveu combinações entre elementos com sobreposição, buscando favorecer a generalização recombinativa. Os participantes aprenderam as relações condicionais, demonstraram generalização recombinativa e produziram fala compreensível com sentenças. Os resultados indicam o potencial dos procedimentos de ensino para a (re)habilitação de usuários de implante. A persistência da defasagem na produção de fala em relação à compreensão sugere questões importantes sobre a ontogenia dos repertórios de ouvinte e de falante.
177

Analyse d’atteignabilité de systèmes max-plus incertains / Reachability Analysis of Uncertain Max Plus Linear Systems

Ferreira Cândido, Renato Markele 23 June 2017 (has links)
Les Systèmes à Evénements Discrets (SED) peuvent être définis comme des systèmes dans lesquels les variables d'état changent sous l'occurrence d'évènements au fil du temps. Les SED mettant en jeu des phénomènes de synchronisation peuvent être modélisés par des équations linéaires dans les algèbres de type (max,+). L'analyse d'atteignabilité est une problématique majeure pour les systèmes dynamiques. L'objectif est de calculer l'ensemble des états atteignables d'un système dynamique pour toutes les valeurs admissibles d'un ensemble d'états initiaux. Le problème de l'analyse d'atteignabilité pour les systèmes Max-Plus Linéaire (MPL) a été, proprement, résolu en décomposant le système MPL en une combinaison de systèmes affines par morceaux où les composantes affines du système sont représentées par des matrices de différences bornées (Difference Bound Matrix, DBM). La contribution principale de cette thèse est de présenter une procédure similaire pour résoudre le problème de l'atteignabilité pour des systèmes MPL incertains (uMPL), c'est-à-dire des systèmes MPL soumis à des bruits bornés, des perturbations et/ou des erreurs de modélisation. Tout d'abord, nous présentons une procédure permettant de partionner l'espace d'état d'un système uMPL en parties représentables par des DBM. Ensuite, nous étendons l'analyse d'atteignabilité des systèmes MPL aux systèmes uMPL. Enfin, les résultats sur l'analyse d'atteignabilité sont mis en oeuvre pour résoudre le problème d'atteignabilité conditionnelle, qui est étroitement lié au calcul du support de la densité de probabilité impliquée dans le problème de filtage stochastique / Discrete Event Dynamic Systems (DEDS) are discrete-state systems whose dynamics areentirely driven by the occurrence of asynchronous events over time. Linear equations in themax-plus algebra can be used to describe DEDS subjected to synchronization and time delayphenomena. The reachability analysis concerns the computation of all states that can bereached by a dynamical system from an initial set of states. The reachability analysis problemof Max Plus Linear (MPL) systems has been properly solved by characterizing the MPLsystems as a combination of Piece-Wise Affine (PWA) systems and then representing eachcomponent of the PWA system as Difference-Bound Matrices (DBM). The main contributionof this thesis is to present a similar procedure to solve the reachability analysis problemof MPL systems subjected to bounded noise, disturbances and/or modeling errors, calleduncertain MPL (uMPL) systems. First, we present a procedure to partition the state spaceof an uMPL system into components that can be completely represented by DBM. Then weextend the reachability analysis of MPL systems to uMPL systems. Moreover, the results onreachability analysis of uMPL systems are used to solve the conditional reachability problem,which is closely related to the support calculation of the probability density function involvedin the stochastic filtering problem. / Os Sistemas a Eventos Discretos (SEDs) constituem uma classe de sistemas caracterizada por apresentar espaço de estados discreto e dinâmica dirigida única e exclusivamente pela ocorrência de eventos. SEDs sujeitos aos problemas de sincronização e de temporização podem ser descritos em termos de equações lineares usando a álgebra max-plus. A análise de alcançabilidade visa o cálculo do conjunto de todos os estados que podem ser alcançados a partir de um conjunto de estados iniciais através do modelo do sistema. A análise de alcançabilidade de sistemas Max Plus Lineares (MPL) pode ser tratada por meio da decomposição do sistema MPL em sistemas PWA (Piece-Wise Affine) e de sua correspondente representação por DBM (Difference-Bound Matrices). A principal contribuição desta tese é a proposta de uma metodologia similar para resolver o problema de análise de alcançabilidade em sistemas MPL sujeitos a ruídos limitados, chamados de sistemas MPL incertos ou sistemas uMPL (uncertain Max Plus Linear Systems). Primeiramente, apresentamos uma metodologia para particionar o espaço de estados de um sistema uMPL em componentes que podem ser completamente representados por DBM. Em seguida, estendemos a análise de alcançabilidade de sistemas MPL para sistemas uMPL. Além disso, a metodologia desenvolvida é usada para resolver o problema de análise de alcançabilidade condicional, o qual esta estritamente relacionado ao cálculo do suporte da função de probabilidade de densidade envolvida o problema de filtragem estocástica.
178

[pt] INTERVALOS DE TOLERÂNCIA PARA VARIÂNCIAS AMOSTRAIS APLICADOS AO ESTUDO DO DESEMPENHO NA FASE II E PROJETO DE GRÁFICOS DE S(2) COM PARÂMETROS ESTIMADOS / [en] TOLERANCE INTERVALS FOR SAMPLE VARIANCES APPLIED TO THE STUDY OF THE PHASE II PERFORMANCE AND DESIGN OF S(2) CHARTS WITH ESTIMATED PARAMETERS

MARTIN GUILLERMO CORNEJO SARMIENTO 25 July 2019 (has links)
[pt] Os gráficos de controle de S(2) são ferramentas fundamentais amplamente utilizados para monitoramento da dispersão do processo em aplicações de CEP. O desempenho na Fase II de diferentes tipos de gráficos de controle, incluindo o gráfico de S(2), com parâmetros desconhecidos pode ser significativamente diferente do desempenho nominal por causa do efeito da estimação de parâmetros. Nos anos mais recentes, este efeito tem sido abordado predominantemente sob a perspectiva condicional, que considera a variabilidade das estimativas de parâmetros obtidas a partir de diferentes amostras de referência da Fase I em vez das típicas medidas de desempenho baseadas na distribuição marginal (incondicional) do número de amostras até o sinal (Run Length-RL), como sua média. À luz dessa nova perspectiva condicional, a análise do desempenho da Fase II e do projeto de gráficos de controle é frequentemente realizada usando o Exceedance Probability Criterion para a média da distribuição condicional do RL (CARL 0), isto é, o critério que garante uma alta probabilidade de que CARL 0 seja pelo menos um valor mínimo tolerado e especificado. Intervalos de tolerância para variâncias amostrais são úteis quando o maior interesse está focado na precisão dos valores de uma característica de qualidade, e podem ser usados na tomada de decisões sobre a aceitação de lotes por amostragem. Motivado pelo fato de que estes intervalos, especificamente no caso dos intervalos bilaterais, não foram abordados na literatura, limites bilaterais de tolerância exatos e aproximados de variâncias amostrais são derivados e apresentados neste trabalho. A relação matemática-estatística entre o intervalo de tolerância para a variância amostral e o Exceedance Probability (função de sobrevivência) da CARL 0 do gráfico de S(2) com parâmetro estimado é reconhecida, destacada e usada neste trabalho de tal forma que o estudo do desempenho na Fase II e o projeto desse gráfico pode ser baseado no intervalo de tolerância para a variância amostral, e vice-versa. Os trabalhos sobre o desempenho e projeto do gráfico de S(2) com parâmetro estimado focaram-se em apenas uma perspectiva (incondicional ou condicional) e consideraram somente um tipo de gráfico (unilateral superior ou bilateral). A existência de duas perspectivas e dois tipos de gráficos poderia ser confusa para os usuários. Por esse motivo, o desempenho e o projeto do gráfico de S(2) de acordo com essas duas perspectivas são comparados, considerando cada tipo de gráfico. Da mesma forma, esses dois tipos de gráficos também são comparados para cada perspectiva. Alguns resultados importantes relacionados ao projeto do gráfico de S(2), que ainda não estão disponíveis na literatura, foram necessários e obtidos neste trabalho para fornecer um estudo comparativo completo que permita aos usuários estarem cientes das diferenças significativas entre as duas perspectivas e os dois tipos de gráficos para tomar decisões informadas sobre a escolha do projeto do gráfico de S(2). Além disso, dado que a distribuição condicional do RL é em geral fortemente enviesada à direita, a mediana e alguns quantis extremos desta distribuição são propostos como medidas de desempenho complementares à sua tradicional média (CARL 0). Finalmente, algumas recomendações práticas são oferecidas. / [en] The S(2) control charts are fundamental tools widely used to monitor the process dispersion in applications of Statistical Process Monitoring and Control. Phase II performance of different types of control charts, including the S(2) chart, with unknown process parameters may be significantly different from the nominal performance due to the effect of parameter estimation. In the last few years, this effect has been addressed predominantly under the conditional perspective, which considers the variability of parameter estimates obtained from different Phase I reference samples instead of the traditional unconditional performance measures based on the marginal (unconditional) run length (RL) distribution, such as the unconditional average run length. In light of this new conditional perspective, the analysis of the Phase II performance and design of control charts is frequently undertaken using the Exceedance Probability Criterion for the conditional (given the parameter estimates) in-control average run length (CARL 0), that is, the criterion that ensures a high probability that the CARL 0 is at least a specified minimum tolerated value. Tolerance intervals for sample variances are useful when the main concern is the precision of the values of the quality characteristic and then they can be used in decision-making on lot acceptance sampling. Motivated by the fact that these tolerance intervals, specifically in the case of the two-sided intervals, have not been addressed in the literature so far, exact and approximate two-sided tolerance limits for the population of sample variances are derived and presented in this work. The mathematical-statistical relationship between tolerance interval for the sample variance and the exceedance probability (survival probability) of the CARL 0 for the S(2) control chart with estimated parameter is recognized, highlighted and used in this work in such a way that the study of the Phase II performance and design of this chart can be based on tolerance interval for the sample variance, and vice versa. Works on performance and design of S(2) chart with estimated parameter generally focused on only one perspective (either unconditional or conditional) and considered only one type of chart (either upper one-sided chart or two-sided chart). The existence of both perspectives and two types of charts may be confusing for practitioners. For that reason, the performance and design of S(2) control chart according to these two perspectives are compared, considering each type of chart. Similarly, these two types of charts are also compared for each perspective. Some important results related to the S(2) chart design, which are not yet available in the literature, were required and obtained in this work to provide a comprehensive comparative study that enables practitioners to be aware of the significant differences between these two perspectives and the two types of charts so that proper informed decisions about the chart design to choose can be made. Furthermore, because the conditional RL distribution is usually highly rightskewed, the median and some extreme quantiles of the conditional RL distribution are proposed as complementary performance measures to the customary mean (CARL 0). Finally, some practical recommendations are offered.
179

Scenario-Based Model Predictive Control for Systems with Correlated Uncertainties

González Querubín, Edwin Alonso 26 April 2024 (has links)
[ES] La gran mayoría de procesos del mundo real tienen incertidumbres inherentes, las cuales, al ser consideradas en el proceso de modelado, se puede obtener una representación que describa con la mayor precisión posible el comportamiento del proceso real. En la mayoría de casos prácticos, se considera que éstas tienen un comportamiento estocástico y sus descripciones como distribuciones de probabilidades son conocidas. Las estrategias de MPC estocástico están desarrolladas para el control de procesos con incertidumbres de naturaleza estocástica, donde el conocimiento de las propiedades estadísticas de las incertidumbres es aprovechado al incluirlo en el planteamiento de un problema de control óptimo (OCP). En éste, y contrario a otros esquemas de MPC, las restricciones duras son relajadas al reformularlas como restricciones de tipo probabilísticas con el fin de reducir el conservadurismo. Esto es, se permiten las violaciones de las restricciones duras originales, pero tales violaciones no deben exceder un nivel de riesgo permitido. La no-convexidad de tales restricciones probabilísticas hacen que el problema de optimización sea prohibitivo, por lo que la mayoría de las estrategias de MPC estocástico en la literatura se diferencian en la forma en que abordan tales restricciones y las incertidumbres, para volver el problema computacionalmente manejable. Por un lado, están las estrategias deterministas que, fuera de línea, convierten las restricciones probabilísticas en unas nuevas de tipo deterministas, usando la propagación de las incertidumbres a lo largo del horizonte de predicción para ajustar las restricciones duras originales. Por otra parte, las estrategias basadas en escenarios usan la información de las incertidumbres para, en cada instante de muestreo, generar de forma aleatoria un conjunto de posibles evoluciones de éstas a lo largo del horizonte de predicción. De esta manera, convierten las restricciones probabilísticas en un conjunto de restricciones deterministas que deben cumplirse para todos los escenarios generados. Estas estrategias se destacan por su capacidad de incluir en tiempo real información actualizada de las incertidumbres. No obstante, esta ventaja genera inconvenientes como su gasto computacional, el cual aumenta conforme lo hace el número de escenarios y; por otra parte, el efecto no deseado en el problema de optimización, causado por los escenarios con baja probabilidad de ocurrencia, cuando se usa un conjunto de escenarios pequeño. Los retos mencionados anteriormente orientaron esta tesis hacia los enfoques de MPC estocástico basado en escenarios, produciendo tres contribuciones principales. La primera consiste en un estudio comparativo de un algoritmo del grupo determinista con otro del grupo basado en escenarios; se hace un especial énfasis en cómo cada uno de estos aborda las incertidumbres, transforma las restricciones probabilísticas y en la estructura de su OCP, además de señalar sus aspectos más destacados y desafíos. La segunda contribución es una nueva propuesta de algoritmo MPC, el cual se basa en escenarios condicionales, diseñado para sistemas lineales con incertidumbres correlacionadas. Este esquema aprovecha la existencia de tal correlación para convertir un conjunto de escenarios inicial de gran tamaño en un conjunto de escenarios más pequeño con sus probabilidades de ocurrencia, el cual conserva las características del conjunto inicial. El conjunto reducido es usado en un OCP en el que las predicciones de los estados y entradas del sistema son penalizadas de acuerdo con las probabilidades de los escenarios que las componen, dando menor importancia a los escenarios con menores probabilidades de ocurrencia. La tercera contribución consiste en un procedimiento para la implementación del nuevo algoritmo MPC como gestor de la energía en una microrred en la que las previsiones de las energías renovables y las cargas están correlacionadas. / [CA] La gran majoria de processos del món real tenen incerteses inherents, les quals, en ser considerades en el procés de modelatge, es pot obtenir una representació que descriga amb la major precisió possible el comportament del procés real. En la majoria de casos pràctics, es considera que aquestes tenen un comportament estocàstic i les seues descripcions com a distribucions de probabilitats són conegudes. Les estratègies de MPC estocàstic estan desenvolupades per al control de processos amb incerteses de naturalesa estocàstica, on el coneixement de les propietats estadístiques de les incerteses és aprofitat en incloure'l en el plantejament d'un problema de control òptim (OCP). En aquest, i contrari a altres esquemes de MPC, les restriccions dures són relaxades en reformulades com a restriccions de tipus probabilístiques amb la finalitat de reduir el conservadorisme. Això és, es permeten les violacions de les restriccions dures originals, però tals violacions no han d'excedir un nivell de risc permès. La no-convexitat de tals restriccions probabilístiques fan que el problema d'optimització siga computacionalment immanejable, per la qual cosa la majoria de les estratègies de MPC estocàstic en la literatura es diferencien en la forma en què aborden tals restriccions i les incerteses, per a tornar el problema computacionalment manejable. D'una banda, estan les estratègies deterministes que, fora de línia, converteixen les restriccions probabilístiques en unes noves de tipus deterministes, usant la propagació de les incerteses al llarg de l'horitzó de predicció per a ajustar les restriccions dures originals. D'altra banda, les estratègies basades en escenaris usen la informació de les incerteses per a, en cada instant de mostreig, generar de manera aleatòria un conjunt de possibles evolucions d'aquestes al llarg de l'horitzó de predicció. D'aquesta manera, converteixen les restriccions probabilístiques en un conjunt de restriccions deterministes que s'han de complir per a tots els escenaris generats. Aquestes estratègies es destaquen per la seua capacitat d'incloure en temps real informació actualitzada de les incerteses. No obstant això, aquest avantatge genera inconvenients com la seua despesa computacional, el qual augmenta conforme ho fa el nombre d'escenaris i; d'altra banda, l'efecte no desitjat en el problema d'optimització, causat pels escenaris amb baixa probabilitat d'ocurrència, quan s'usa un conjunt d'escenaris xicotet. Els reptes esmentats anteriorment van orientar aquesta tesi cap als enfocaments de MPC estocàstic basat en escenaris, produint tres contribucions principals. La primera consisteix en un estudi comparatiu d'un algorisme del grup determinista amb un altre del grup basat en escenaris; on es fa un especial èmfasi en com cadascun d'aquests aborda les incerteses, transforma les restriccions probabilístiques i en l'estructura del seu problema d'optimització, a més d'assenyalar els seus aspectes més destacats i desafiaments. La segona contribució és una nova proposta d'algorisme MPC, el qual es basa en escenaris condicionals, dissenyat per a sistemes lineals amb incerteses correlacionades. Aquest esquema aprofita l'existència de tal correlació per a convertir un conjunt d'escenaris inicial de gran grandària en un conjunt d'escenaris més xicotet amb les seues probabilitats d'ocurrència, el qual conserva les característiques del conjunt inicial. El conjunt reduït és usat en un OCP en el qual les prediccions dels estats i entrades del sistema són penalitzades d'acord amb les probabilitats dels escenaris que les componen, donant menor importància als escenaris amb menors probabilitats d'ocurrència. La tercera contribució consisteix en un procediment per a la implementació del nou algorisme MPC com a gestor de l'energia en una microxarxa en la qual les previsions de les energies renovables i les càrregues estan correlacionades. / [EN] The vast majority of real-world processes have inherent uncertainties, which, when considered in the modelling process, can provide a representation that most accurately describes the behaviour of the real process. In most practical cases, these are considered to have stochastic behaviour and their descriptions as probability distributions are known. Stochastic model predictive control algorithms are developed to control processes with uncertainties of a stochastic nature, where the knowledge of the statistical properties of the uncertainties is exploited by including it in the optimal control problem (OCP) statement. Contrary to other model predictive control (MPC) schemes, hard constraints are relaxed by reformulating them as probabilistic constraints to reduce conservatism. That is, violations of the original hard constraints are allowed, but such violations must not exceed a permitted level of risk. The non-convexity of such probabilistic constraints renders the optimisation problem computationally unmanageable, thus most stochastic MPC strategies in the literature differ in how they deal with such constraints and uncertainties to turn the problem computationally tractable. On the one hand, there are deterministic strategies that, offline, convert probabilistic constraints into new deterministic ones, using the propagation of uncertainties along the prediction horizon to tighten the original hard constraints. Scenario-based approaches, on the other hand, use the uncertainty information to randomly generate, at each sampling instant, a set of possible evolutions of uncertainties over the prediction horizon. In this fashion, they convert the probabilistic constraints into a set of deterministic constraints that must be fulfilled for all the scenarios generated. These strategies stand out for their ability to include real-time updated uncertainty information. However, this advantage comes with inconveniences such as computational effort, which grows as the number of scenarios does, and the undesired effect on the optimisation problem caused by scenarios with a low probability of occurrence when a small set of scenarios is used. The aforementioned challenges steered this thesis toward stochastic scenario-based MPC approaches, and yielded three main contributions. The first one consists of a comparative study of an algorithm from the deterministic group with another one from the scenario-based group, where a special emphasis is made on how each of them deals with uncertainties, transforms the probabilistic constraints and on the structure of the optimisation problem, as well as pointing out their most outstanding aspects and challenges. The second contribution is a new proposal for a MPC algorithm, which is based on conditional scenarios, developed for linear systems with correlated uncertainties. This scheme exploits the existence of such correlation to convert a large initial set of scenarios into a smaller one with their probabilities of occurrence, which preserves the characteristics of the initial set. The reduced set is used in an OCP in which the predictions of the system states and inputs are penalised according to the probabilities of the scenarios that compose them, giving less importance to the scenarios with lower probabilities of occurrence. The third contribution consists of a procedure for the implementation of the new MPC algorithm as an energy manager in a microgrid in which the forecasts of renewables and loads are correlated. / González Querubín, EA. (2024). Scenario-Based Model Predictive Control for Systems with Correlated Uncertainties [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/203887

Page generated in 0.5054 seconds