• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 140
  • 6
  • 1
  • Tagged with
  • 147
  • 147
  • 68
  • 27
  • 24
  • 24
  • 21
  • 20
  • 19
  • 17
  • 16
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Princípios de grandes desvios: para o método da entropia penalizada na teoria de Aubry-Mather e para cadeias de Markov a estado contínuo

Mohr, Joana January 2008 (has links)
Este trabalho será dividido em dois capítulos. Em ambos exibiremos a função de desvio e um princípio de grandes desvios para uma sequência de medidas que convergem, para uma medida minimizante no primeiro problema e para uma medida maximizante no segundo. O primeiro capítulo trata de aspectos da teoria de Aubry-Mather. Para um Lagrangiano L(x; v) : TN £ RN → R, satisfazendo algumas hipóteses naturais, e sob hipótese de genericidade, estamos interessados em mostrar um princípio de grandes desvios para uma sequência de medidas que convergem para a medida de Mather. D. Gomes e E. Valdinoci mostraram, para ε; h fixados, a existência de uma medida absolutamente contínua με; h que minimiza o problema de A-M discreto com entropia. Também analisaremos o problema discreto de Aubry-Mather, onde introduziremos o conceito de sub-ação e mostraremos, sob hipótese do Lagrangiano ser genérico, a unicidade de um certo tipo de sub-ação que chamaremos de calibradas. E finalmente mostraremos a existência de um outro tipo de sub-ação ditas separantes. / This work will be divided in two chapters. In both cases we present the rate function and a large deviation principle for a sequence of measures converging, to a minimizing measure in the first problem and to a maximizing measure in the second one. In the first chapter the setting will be the Aubry-Mather theory. For a Lagrangian L(x; v) : TN £RN → R, satisfying some natural hypothesis, and for a generic Lagrangian (it is known that in this case the Mather measure μ is unique and the support of μ is the Aubry set), we will show a large deviation principle for a sequence of measures that converge to the Mather measure. It follows from a result by D. Gomes and E. Valdinoci that, for ε; h fixed, there exists an absolutely continuous measure με; h that minimize the entropy penalized A-M problem. Also we will analyze the discrete A-M problem, where we introduce the concept of subaction and we will show, under the hypothesis of generic Lagrangian, the uniqueness of a kind of subaction, that we will call calibrated. And finally we will show the existence of another kind of subactions, a separating subaction.
22

Comportamento assintótico de cadeias de Markov via distância Mallows, com aplicação em processos empíricos

Silva, Edimilson dos Santos 10 November 2016 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, 2016. / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2017-01-13T21:26:41Z No. of bitstreams: 1 2016_EdimilsondosSantosdaSilva.pdf: 588263 bytes, checksum: 73d73613c57511707fe3fb3071858c05 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-02-13T17:57:52Z (GMT) No. of bitstreams: 1 2016_EdimilsondosSantosdaSilva.pdf: 588263 bytes, checksum: 73d73613c57511707fe3fb3071858c05 (MD5) / Made available in DSpace on 2017-02-13T17:57:52Z (GMT). No. of bitstreams: 1 2016_EdimilsondosSantosdaSilva.pdf: 588263 bytes, checksum: 73d73613c57511707fe3fb3071858c05 (MD5) / Nesta tese estudamos o comportamento assintótico de somas parciais de variáveis aleatórias que constituem uma cadeia de Markov X={Xn}n≥0. Assim, provamos a convergência, em distância Mallows, de somas parciais associadas a cadeias de Markov com espaço de estados enumerável para uma variável aleatória α-estável, com 1<α≤2, abordando, separadamente, o caso Gaussiano e o caso cauda-pesada. Como uma aplicação, demonstramos a convergência fraca de um tipo especial de soma parcial, o processo empírico βn(x) relativo a uma cadeia de Markov com espaço de estados geral, bem como do processo considerado o seu inverso, o processo quantil empírico qn(t). / In this dissertation we prove the convergence in Mallows distance of partial sums of random variables associated with a Markov chain with countable state space to a α-stable random variable, with 1<α≤2, addressing separately the Gaussian case and the heavy-tailed case. As an application, we prove the weak convergence of a special type of partial sum, the empirical process βn(x) on a Markov chain with general state space, as well as its inverse process, the empirical quantile process qn(t).
23

O impacto do IDEB na qualidade da educação básica pública no Brasil : uma avaliação a partir do processo de Markov

Lira, Michelle Catyana Mota 23 January 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade UnB Planaltina, Programa de Pós-Graduação em Gestão Pública, Mestrado Profissional em Gestão Pública, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-03-07T20:14:12Z No. of bitstreams: 1 2016_MichelleCatyanaMotaLira.pdf: 2830800 bytes, checksum: 61d400d6b7f1e4f4df23e10fde5f9cdb (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2017-03-21T13:05:02Z (GMT) No. of bitstreams: 1 2016_MichelleCatyanaMotaLira.pdf: 2830800 bytes, checksum: 61d400d6b7f1e4f4df23e10fde5f9cdb (MD5) / Made available in DSpace on 2017-03-21T13:05:02Z (GMT). No. of bitstreams: 1 2016_MichelleCatyanaMotaLira.pdf: 2830800 bytes, checksum: 61d400d6b7f1e4f4df23e10fde5f9cdb (MD5) / Esta dissertação tem por objetivo analisar o impacto do Índice de Desenvolvimento da Educação Básica- IDEB na qualidade da educação básica pública no Brasil. Inúmeras são as políticas públicas educacionais em curso, bem como elevados são os investimentos na área educacional, entretanto, ainda assim, o País encontra-se em níveis abaixo do esperado se comparado a outros países. Aferir a qualidade da educação se torna essencial para uma melhor gestão. Nesse sentido o IDEB, por caracterizar-se como um índice que mede a qualidade da educação no país, possui relevantes dados os quais podem induzir a resultados relativos à melhoria ou não do desempenho das escolas durante os anos avaliados. Nesta dissertação os dados desse índice foram analisados a partir do Processo de Markov, a fim de verificar se houve melhoria do desempenho das escolas da educação básica pública. Obteve-se como resultados que, em sua grande maioria, as escolas apresentaram melhora nas notas sugerindo que a aferição e divulgação do IDEB pode ter gerado um fator motivacional para os atores envolvidos, influenciando, consequentemente, as notas dos alunos. / This dissertation evaluated the impact of the Índice de Desenvolvimento da Educação Básica- IDEB on the quality of public basic education in Brazil. There are several educational public policies in addition to high investments in education, however, the country is still well below expectations compared to several countries. To mensure the quality of education becomes essential for better management. In this sense, this Index, because it is characterized as one that measures the quality of education in the Country, has relevant informations which can induce results related to the improvement or not of the performance of the schools during the evaluated years. In this dissertation we analyzed the informations of the IDEB using the Markov Process, in order to verify if there was improvement of the performance of the schools of public basic education. It was obtained results that, for the most part, the schools showed improvement in their grades which suggests that the measurement and dissemination of the Index may have generated a motivational factor for the involved players, consequently influencing the grades of the students.
24

Modelo de precificação de ativos por cadeias de Markov / Asset Pricing Model by Markov Chains

Hashioka, Jean Akio Shida 15 June 2018 (has links)
Submitted by Jean Akio Shida Hashioka (jeanhashioka@hotmail.com) on 2018-07-15T18:07:38Z No. of bitstreams: 1 JEAN AKIO SHIDA HASHIOKA - DISSERTAÇÃO.pdf: 1481230 bytes, checksum: 0f68b8e12c0a1f82eeaf421be75f5c17 (MD5) / Approved for entry into archive by Elza Mitiko Sato null (elzasato@ibilce.unesp.br) on 2018-07-17T13:30:41Z (GMT) No. of bitstreams: 1 hashioka_jas_me_sjrp.pdf: 1481230 bytes, checksum: 0f68b8e12c0a1f82eeaf421be75f5c17 (MD5) / Made available in DSpace on 2018-07-17T13:30:41Z (GMT). No. of bitstreams: 1 hashioka_jas_me_sjrp.pdf: 1481230 bytes, checksum: 0f68b8e12c0a1f82eeaf421be75f5c17 (MD5) Previous issue date: 2018-06-15 / Este trabalho consiste em apresentar a abordagem das cadeias de Markov como ferramenta auxiliadora na prática docente da matemática no Ensino Médio, tornando o processo mais tangível à realidade dos alunos. A contextualização dos conteúdos de matrizes, sistemas lineares e probabilidade poderá ser feita com exemplos práticos do cotidiano, considerando o meio social em que vivem os estudantes, resgatando assim o desejo pela aprendizagem e pelas aplicações da matemática. Espera-se desta forma maior receptividade da disciplina por parte dos discentes e, potencialmente, melhor resposta ao aprendizado pretendido. Assim sendo, o estudo aborda, num primeiro momento, a convergência de distribuição de probabilidade de uma cadeia de Markov de dois estados por meio de limites no in nito de uma função de probabilidade. Desta primeira cadeia de Markov de dois estados, é elaborado um roteiro de aula a ser abordado como exemplo a ser trabalhado em sala de aula relacionado às probabilidades de um time de futebol vencer as suas próximas partidas. Prosseguindo, observa-se a aplicabilidade das cadeias de Markov para calcular a distribuição de probabilidades de um jogador estar perdido em diferentes salas de um labirinto para cada tentativa de encontrar a saída. A m de evidenciar outro exemplo de aplicação das cadeias de Markov, há a construção de um modelo de preci cação de ativos com o objetivo de prever os preços de algumas ações de empresas negociadas na BM&FBOVESPA, a bolsa de valores do Brasil. Tal modelo de preci cação de ativos mostrou-se adequado estatisticamente como ferramenta de análise e cálculo dos retornos médios esperados de alguns dos ativos estudados. Por meio do conteúdo apresentado neste estudo, espera-se contribuir com o aprofundamento de alguns recursos e conceitos para a prática docente com aulas sobre cadeias de Markov no Ensino Médio. Esses aspectos direcionam esta pesquisa para um relevante processo de desenvolvimento do raciocínio, senso crítico e tomada de decisões em situações progressivamente mais complexas vividas pelos alunos. / This work presents the Markov chain approach as a useful tool in the teaching practice of mathematics in High School, making the process more tangible to the students' reality. The contextualization of matrix contents, linear systems and probability can be done with practical examples of daily life, considering the social environment in which students live, thus recovering the desire for learning and the applications of mathematics. It is expected in this way more receptivity of the discipline on the part of the students and, potentially, better response to the intended learning. Thus, the study addresses, rst, the convergence of probability distribution of a two-state Markov chain by means of in nite limits of a probability function. From this rst Markov chain of two states, a lesson script is elaborated to be approached as example to be worked in classroom related to the probabilities of a soccer team to win its next matches. Proceeding, we observe the applicability of Markov chains to calculate the probability distribution of a player being lost in di erent rooms of a maze for each attempt to nd the exit. In order to highlight another example of the application of the Markov chains, an asset pricing model is designed to predict the prices of some shares of companies traded on BM&FBOVESPA, the Brazilian stock exchange. Such an asset pricing model proved to be statistically adequate as a tool for analysis and calculation of the expected average returns of some of the assets studied. Through the content presented in this study, it is hoped to contribute with the deepening of some resources and concepts for the teaching practice with classes on Markov chains in High School. These aspects direct this research to a relevant process of development of reasoning, critical sense and decision making in progressively more complex situations experienced by students.
25

Grandes desvios no contexto de variáveis aleatórias independentes e identicamente distribuídas

Giacomelli, Marco Antonio January 1995 (has links)
Esta dissertação é o resultado de um estudo sobre a Teoria de Grandes Desvios, no qual deu-se ênfase ao contexto de variáveis aleatórias independentes e identicamente distribuídas (v.a's i.i.d.). Com a finalidade de discutir a lguns dos principais resultados sobre Grandes Desvios, inicialmente apresentamos as definições e propriedades básicas. ~uma etapa seguinte apresentamos o teorema de Cramér-Chernoff para v .a's i. i .d. a valores em R . A seguir enunciamos um princípio de Grandes Desvios para quaisquer abertos e fechados de R. Numa etapa posterior estendemos o teorema de Cramér-Chernoff para v.a's i.i.d. a valores em Rd. No Capítulo final apresentamos, de maneira sintética, outras extensões do teorema de Cramér-Chernoff, tais como: o teorema de Sanov para v .a's i.i .d. e o princípio de Grandes Desvios para Cadeias de Markov finit as. Além disso, apresentamos algumas aplicações de Grandes Desvios em Estatística Matemática. / This thesis is the result of a study about the Large Deviations Theory, in which the context of independent and identically distributed (i.i.d.) random variables was emphasized. Aiming to discuss some of the main results about Large Deviations, first we present the definitions and the basic properties. In a second moment, we present Cramér-Chernoff's theorem for i.i.d random variables in R. Mter, we enunciate a Large Deviations principie for any open and closed sets in R . In another stage, we extend Cramér-Chernoff's theorem for i.i.d. random variables in Rd. In Jast chapter, we present, briefly, other extensions of CramérChernoff's theorem, such as Sanov's theorem for i.i.d. random variables and the Large Deviations principie for finite state Markov Chains. Besides, we present some applications of Large Deviations in Mathematical Statisitics.
26

Inferência estocástica e modelos de mistura de distribuições

Vargas, Regis Nunes January 2011 (has links)
Neste trabalho apresentamos os resultados de consistência e normalidade assintótica para o estimador de máxima verossimilhança de uma Cadeia de Markov ergódica. Além disso apresentaremos os Modelos de Mistura de Distribuição Independente e um dos casos de Modelos de Mistura Dependente: os Modelos Ocultos de Markov. Estimaremos os parâmetros destes modelos a partir do método da máxima verossimilhança e abordaremos o critério de seleção através do cálculo do AIC e BIC. / This paper presents the results of consistency and asymptotic normality for the maximum likelihood estimator of the ergodic Markov chain. In addition we present the Independent Mixture Models and one case of Dependent Mixture Models: the Hidden Markov Models. We estimate the parameters of these models from the maximum likelihood method and discuss the selection criteria by calculating the AIC and BIC.
27

Grandes desvios no contexto de variáveis aleatórias independentes e identicamente distribuídas

Giacomelli, Marco Antonio January 1995 (has links)
Esta dissertação é o resultado de um estudo sobre a Teoria de Grandes Desvios, no qual deu-se ênfase ao contexto de variáveis aleatórias independentes e identicamente distribuídas (v.a's i.i.d.). Com a finalidade de discutir a lguns dos principais resultados sobre Grandes Desvios, inicialmente apresentamos as definições e propriedades básicas. ~uma etapa seguinte apresentamos o teorema de Cramér-Chernoff para v .a's i. i .d. a valores em R . A seguir enunciamos um princípio de Grandes Desvios para quaisquer abertos e fechados de R. Numa etapa posterior estendemos o teorema de Cramér-Chernoff para v.a's i.i.d. a valores em Rd. No Capítulo final apresentamos, de maneira sintética, outras extensões do teorema de Cramér-Chernoff, tais como: o teorema de Sanov para v .a's i.i .d. e o princípio de Grandes Desvios para Cadeias de Markov finit as. Além disso, apresentamos algumas aplicações de Grandes Desvios em Estatística Matemática. / This thesis is the result of a study about the Large Deviations Theory, in which the context of independent and identically distributed (i.i.d.) random variables was emphasized. Aiming to discuss some of the main results about Large Deviations, first we present the definitions and the basic properties. In a second moment, we present Cramér-Chernoff's theorem for i.i.d random variables in R. Mter, we enunciate a Large Deviations principie for any open and closed sets in R . In another stage, we extend Cramér-Chernoff's theorem for i.i.d. random variables in Rd. In Jast chapter, we present, briefly, other extensions of CramérChernoff's theorem, such as Sanov's theorem for i.i.d. random variables and the Large Deviations principie for finite state Markov Chains. Besides, we present some applications of Large Deviations in Mathematical Statisitics.
28

Inferência estocástica e modelos de mistura de distribuições

Vargas, Regis Nunes January 2011 (has links)
Neste trabalho apresentamos os resultados de consistência e normalidade assintótica para o estimador de máxima verossimilhança de uma Cadeia de Markov ergódica. Além disso apresentaremos os Modelos de Mistura de Distribuição Independente e um dos casos de Modelos de Mistura Dependente: os Modelos Ocultos de Markov. Estimaremos os parâmetros destes modelos a partir do método da máxima verossimilhança e abordaremos o critério de seleção através do cálculo do AIC e BIC. / This paper presents the results of consistency and asymptotic normality for the maximum likelihood estimator of the ergodic Markov chain. In addition we present the Independent Mixture Models and one case of Dependent Mixture Models: the Hidden Markov Models. We estimate the parameters of these models from the maximum likelihood method and discuss the selection criteria by calculating the AIC and BIC.
29

Princípios de grandes desvios: para o método da entropia penalizada na teoria de Aubry-Mather e para cadeias de Markov a estado contínuo

Mohr, Joana January 2008 (has links)
Este trabalho será dividido em dois capítulos. Em ambos exibiremos a função de desvio e um princípio de grandes desvios para uma sequência de medidas que convergem, para uma medida minimizante no primeiro problema e para uma medida maximizante no segundo. O primeiro capítulo trata de aspectos da teoria de Aubry-Mather. Para um Lagrangiano L(x; v) : TN £ RN → R, satisfazendo algumas hipóteses naturais, e sob hipótese de genericidade, estamos interessados em mostrar um princípio de grandes desvios para uma sequência de medidas que convergem para a medida de Mather. D. Gomes e E. Valdinoci mostraram, para ε; h fixados, a existência de uma medida absolutamente contínua με; h que minimiza o problema de A-M discreto com entropia. Também analisaremos o problema discreto de Aubry-Mather, onde introduziremos o conceito de sub-ação e mostraremos, sob hipótese do Lagrangiano ser genérico, a unicidade de um certo tipo de sub-ação que chamaremos de calibradas. E finalmente mostraremos a existência de um outro tipo de sub-ação ditas separantes. / This work will be divided in two chapters. In both cases we present the rate function and a large deviation principle for a sequence of measures converging, to a minimizing measure in the first problem and to a maximizing measure in the second one. In the first chapter the setting will be the Aubry-Mather theory. For a Lagrangian L(x; v) : TN £RN → R, satisfying some natural hypothesis, and for a generic Lagrangian (it is known that in this case the Mather measure μ is unique and the support of μ is the Aubry set), we will show a large deviation principle for a sequence of measures that converge to the Mather measure. It follows from a result by D. Gomes and E. Valdinoci that, for ε; h fixed, there exists an absolutely continuous measure με; h that minimize the entropy penalized A-M problem. Also we will analyze the discrete A-M problem, where we introduce the concept of subaction and we will show, under the hypothesis of generic Lagrangian, the uniqueness of a kind of subaction, that we will call calibrated. And finally we will show the existence of another kind of subactions, a separating subaction.
30

Modelo de análise de predição do desenvolvimento das micro e pequenas empresas utilizando cadeias de Markov

SILVA, Auristela Maria da 27 February 2018 (has links)
Submitted by Mario BC (mario@bc.ufrpe.br) on 2018-05-04T13:38:04Z No. of bitstreams: 1 Auristela Maria da Silva.pdf: 1905903 bytes, checksum: df4f6fcdd5971ea8e3191e0bd2fed158 (MD5) / Made available in DSpace on 2018-05-04T13:38:04Z (GMT). No. of bitstreams: 1 Auristela Maria da Silva.pdf: 1905903 bytes, checksum: df4f6fcdd5971ea8e3191e0bd2fed158 (MD5) Previous issue date: 2018-02-27 / Micro and small enterprises (SMEs) are constantly challenged in their ability to react to market threats and generate opportunities. Innovation emerges as a way to make these companies more robust and competitive. In this research, we will present a probabilistic model that contributes to the study of the dynamics of the behavior of MPE in relation to its innovative and organizational profile in the long term. The model used corresponds to a Markov Chain in discrete time, which in defining the maturity levels (states) of the companies and obtaining the probabilities of transition in a step, allows to describe and predict the future states of these organizations. The different states used are based on the Degree of Organizational Development (GO) and Degree of Innovation (GI), obtained from the Project Local Innovation Agents of the Brazilian Service of Support to Micro and Small Companies. To validate the model, a directed sample distributed in three groups of 20 companies from the food, furniture and clothing industry sectors of the state of Pernambuco will be used. The results indicate that, given the initial state of these companies, which are mostly at a level of management and innovation considered to be insipient, they will remain in reaching the steady state of the model. / As micro e pequenas empresas (MPE) estão sendo constantemente desafiadas em sua capacidade de reagir às ameaças do mercado e gerar oportunidades. A inovação surge como uma forma de tornar essas empresas mais robustas e competitivas. Nesta pesquisa, apresentar-se-á um modelo probabilístico que contribui para o estudo da dinâmica do comportamento das MPE com relação ao seu perfil inovador e organizacional em longo prazo. O modelo utilizado corresponde a uma Cadeia de Markov em tempo discreto, que ao definir os níveis de maturidade (estados) das empresas e a obtenção das probabilidades de transição em um passo, permite descrever e prever os estados futuros dessas organizações. Os diferentes estados utilizados são baseados no Grau de Desenvolvimento Organizacional (GO) e no Grau de Inovação (GI), obtidos a partir do Projeto Agentes Locais de Inovação do Serviço Brasileiro de Apoio às Micro e Pequenas Empresas. Para validar o modelo, utilizar-se-á uma amostra dirigida distribuída em três grupos de 20 empresas dos setores da indústria de alimentos, móveis e confecções do estado de Pernambuco. Os resultados obtidos indicam que, dado o estado inicial dessas empresas, que em sua maioria encontra-se em um patamar de gestão e inovação considerado insipiente, assim permanecerão ao atingir o estado estacionário do modelo.

Page generated in 0.0867 seconds