Spelling suggestions: "subject:"cadeia dde alcance variáveis"" "subject:"cadeia dee alcance variáveis""
1 |
Um esquema regenerativo visível em cadeias de alcance variável não limitada / A visible regenerative scheme in unbounded variable length chainsEsteves, Divanilda Maia 21 March 2007 (has links)
O objetivo central desta tese é demonstrar a existência de uma estrutura regenerativa visível para cadeias de alcance variável não limitadas. Também apresentamos um algoritmo de identificação de seqüências de instantes de regeneração que converge quase certamente quando o tamanho da amostra diverge. / Our main aim is prove the existence of a regeneration scheme in unbounded variable length chains. We present an algorithm to identify sequences of regeneration times which converges almost surely as the sample length.
|
2 |
Um esquema regenerativo visível em cadeias de alcance variável não limitada / A visible regenerative scheme in unbounded variable length chainsDivanilda Maia Esteves 21 March 2007 (has links)
O objetivo central desta tese é demonstrar a existência de uma estrutura regenerativa visível para cadeias de alcance variável não limitadas. Também apresentamos um algoritmo de identificação de seqüências de instantes de regeneração que converge quase certamente quando o tamanho da amostra diverge. / Our main aim is prove the existence of a regeneration scheme in unbounded variable length chains. We present an algorithm to identify sequences of regeneration times which converges almost surely as the sample length.
|
3 |
Stochastic models in neurobiology: from a multiunitary regime to EEG data / Modelos estocásticos em neurobiologia: do regime multiunitario aos dados de EEGOliveira, Aline Duarte de 17 July 2015 (has links)
In this thesis we study three different stochastic processes describing the brain activity. The first one is a continuous time version of the stochastic chains with memory of variable length. These stochastic chains take values in the set of neurons and assign, at time t, the value of the last neuron which spiked up to time t. Moreover, we assume neurons interact through a phenomena called chemical synapses. Briefly this means that when a neuron spikes, it loses all its membrane potential and at same time changes the membrane potential of the neurons which are influenced by it. Under this approach we proved the positive recurrent of the process and presented a perfect simulation algorithm able to generate a finite sample of the process under its invariant measure. In the second model we continue considering the chemical synapses interaction and add also an interaction through electrical synapses. The last one happens duo to the presence of specific channels which allow the passage of ions along the the membrane of two neurons and, as consequence, we have a sharing of potential between the neurons. Moreover, we consider also the constant lost of potential of the neurons for the environment which push each neuron to a resting state. For this model we study the long-run behaviour of the process with a finite number of neurons, the hydrodynamic limit for the system and investigate the possible invariant distributions for the limiting process. In the last model considered here we study the brain activity measured through EEG data. We investigate the predictive coding principle which says that neural networks are able to learn the statistical regularities inherent in a stimuli and reduce redundancy by removing the predictable components of the input. To test this conjecture we propose procedures to perform statistical model selection on the EEG data in order to retrieve structural features of stochastic sources. This is done through a case study in which the EEG data is recorded under the effect of two different stochastic rhythmic sources produced by two different context tree models. We present a suitable class of stochastic processes, called here as hidden context tree models, to model EEG signals evoked by rhythmic structures. Then, we propose a consistent statistical procedure to perform statistical model selection in this class and in our case study. / Nessa tese estudamos três diferentes processos estocásticos descrevendo a atividade cerebral. O primeiro processo é uma versão a tempo contínuo das cadeias estocásticas com memória de alcance variável. Essas cadeias tomam valores no conjunto dos neurônios e assumem, no instante t, o valor do último neurônio a disparar antes de t. Além disso, assumimos que os neurônios interagem entre si através de fenômenos chamados sinapses químicas. Resumidamente isso significa que quando um neurônio dispara perde todo seu potencial de membrana e, simultaneamente, muda o potencial de membrana dos neurônios que influencia. Para esse processo estocástico provamos a recorrência positiva e apresentamos um algoritmo de simulação perfeita capaz de gerar uma amostra finita cuja distribuição é a medida invariante do processo. Na segunda classe de modelos continuamos considerando as sinapses químicas e adicionamos ainda interação por sinapses elétricas. A última acontece devido a presença de canais específicos entre dois neurônios que permitem a passagem de íons ao longo de suas membranas, como consequência, temos um compartilhamento de potencial entre os neurônios. Além disso, consideramos também a constante perda de potencial dos neurônios para o meio que age empurrando o potencial de cada neurônio a um estado de repouso. Com esses modelos estudamos o comportamento a longo prazo do processo com um número finito de neurônios, o limite hidrodinâmico desse sistema e investigamos a possível distribuição invariante para o processo limite. Na última classe considerada aqui estudamos a atividade cerebral medida através de dados de EEG. Nós investigamos o princípio do código preditivo que afirma que redes neurais são capazes de aprender as regularidades estatísticas inerentes em um estímulo e reduzir a redundância removendo as componentes previsíveis. Para testar essa conjectura, propomos um procedimento para realizar seleção estatística de modelos em dados de EEG afim de recuperar características estruturais de fontes estocásticas. Isso é feito através de um caso de estudo em que dados de EEG são coletados sob o efeito de duas fontes rítmicas estocásticas distintas produzidas por duas árvores de contextos distintas. Nós apresentamos uma classe de modelos adequada, chamada aqui de modelos de árvore de contextos oculta, para modelar sinais de EEG evocados por estruturas rítmicas. Finalmente, propomos um procedimento estatístico consistente para fazer seleção estatística de modelos nessa nova classe assim como no nosso caso de estudo.
|
4 |
Stochastic models in neurobiology: from a multiunitary regime to EEG data / Modelos estocásticos em neurobiologia: do regime multiunitario aos dados de EEGAline Duarte de Oliveira 17 July 2015 (has links)
In this thesis we study three different stochastic processes describing the brain activity. The first one is a continuous time version of the stochastic chains with memory of variable length. These stochastic chains take values in the set of neurons and assign, at time t, the value of the last neuron which spiked up to time t. Moreover, we assume neurons interact through a phenomena called chemical synapses. Briefly this means that when a neuron spikes, it loses all its membrane potential and at same time changes the membrane potential of the neurons which are influenced by it. Under this approach we proved the positive recurrent of the process and presented a perfect simulation algorithm able to generate a finite sample of the process under its invariant measure. In the second model we continue considering the chemical synapses interaction and add also an interaction through electrical synapses. The last one happens duo to the presence of specific channels which allow the passage of ions along the the membrane of two neurons and, as consequence, we have a sharing of potential between the neurons. Moreover, we consider also the constant lost of potential of the neurons for the environment which push each neuron to a resting state. For this model we study the long-run behaviour of the process with a finite number of neurons, the hydrodynamic limit for the system and investigate the possible invariant distributions for the limiting process. In the last model considered here we study the brain activity measured through EEG data. We investigate the predictive coding principle which says that neural networks are able to learn the statistical regularities inherent in a stimuli and reduce redundancy by removing the predictable components of the input. To test this conjecture we propose procedures to perform statistical model selection on the EEG data in order to retrieve structural features of stochastic sources. This is done through a case study in which the EEG data is recorded under the effect of two different stochastic rhythmic sources produced by two different context tree models. We present a suitable class of stochastic processes, called here as hidden context tree models, to model EEG signals evoked by rhythmic structures. Then, we propose a consistent statistical procedure to perform statistical model selection in this class and in our case study. / Nessa tese estudamos três diferentes processos estocásticos descrevendo a atividade cerebral. O primeiro processo é uma versão a tempo contínuo das cadeias estocásticas com memória de alcance variável. Essas cadeias tomam valores no conjunto dos neurônios e assumem, no instante t, o valor do último neurônio a disparar antes de t. Além disso, assumimos que os neurônios interagem entre si através de fenômenos chamados sinapses químicas. Resumidamente isso significa que quando um neurônio dispara perde todo seu potencial de membrana e, simultaneamente, muda o potencial de membrana dos neurônios que influencia. Para esse processo estocástico provamos a recorrência positiva e apresentamos um algoritmo de simulação perfeita capaz de gerar uma amostra finita cuja distribuição é a medida invariante do processo. Na segunda classe de modelos continuamos considerando as sinapses químicas e adicionamos ainda interação por sinapses elétricas. A última acontece devido a presença de canais específicos entre dois neurônios que permitem a passagem de íons ao longo de suas membranas, como consequência, temos um compartilhamento de potencial entre os neurônios. Além disso, consideramos também a constante perda de potencial dos neurônios para o meio que age empurrando o potencial de cada neurônio a um estado de repouso. Com esses modelos estudamos o comportamento a longo prazo do processo com um número finito de neurônios, o limite hidrodinâmico desse sistema e investigamos a possível distribuição invariante para o processo limite. Na última classe considerada aqui estudamos a atividade cerebral medida através de dados de EEG. Nós investigamos o princípio do código preditivo que afirma que redes neurais são capazes de aprender as regularidades estatísticas inerentes em um estímulo e reduzir a redundância removendo as componentes previsíveis. Para testar essa conjectura, propomos um procedimento para realizar seleção estatística de modelos em dados de EEG afim de recuperar características estruturais de fontes estocásticas. Isso é feito através de um caso de estudo em que dados de EEG são coletados sob o efeito de duas fontes rítmicas estocásticas distintas produzidas por duas árvores de contextos distintas. Nós apresentamos uma classe de modelos adequada, chamada aqui de modelos de árvore de contextos oculta, para modelar sinais de EEG evocados por estruturas rítmicas. Finalmente, propomos um procedimento estatístico consistente para fazer seleção estatística de modelos nessa nova classe assim como no nosso caso de estudo.
|
5 |
Simulação perfeita de cadeias de alcance variável não limitado / Perfect simulation for unbounded variable length memory chainsAlexsandro Giacomo Grimbert Gallo 30 October 2009 (has links)
Nesta tese consideramos cadeias de alcance variável não limitado. São cadeias de alcance infinito cuja família de probabilidades de transição é representada por uma árvore de contextos probabilística. Dado uma árvore de contextos probabilística não limitada, as questões que nos interessam são as seguintes: existe ou não uma cadeia estacionária compatível com esta árvore? Se existir, esta cadeia é única? Podemos fazer uma simulação perfeita desta cadeia? Nesta tese, apresentamos novos critérios sucientes que garantem a existência e a unicidade da cadeia estacionária e, sob restrições mais fortes, a possibilidade de fazer uma simulação perfeita. Uma caraterística interessante do nosso trabalho é o fato de não utilizarmos a condição de continuidade. / We present a new perfect simulation algorithm for stationary chains (indexed by Z) having unbounded variable length memory. This is the class of innite memory chains for which the family of transition probabilities is given by probabilistic context tree. Our condition is expressed in terms of the structure of the context tree. In particular, we do not assume the continuity of the family of transition probabilities. We give an explicit construction of the chain using a sequence of i.i.d. random variables uniformly distributed in [0,1[.
|
6 |
Simulação perfeita de cadeias de alcance variável não limitado / Perfect simulation for unbounded variable length memory chainsGallo, Alexsandro Giacomo Grimbert 30 October 2009 (has links)
Nesta tese consideramos cadeias de alcance variável não limitado. São cadeias de alcance infinito cuja família de probabilidades de transição é representada por uma árvore de contextos probabilística. Dado uma árvore de contextos probabilística não limitada, as questões que nos interessam são as seguintes: existe ou não uma cadeia estacionária compatível com esta árvore? Se existir, esta cadeia é única? Podemos fazer uma simulação perfeita desta cadeia? Nesta tese, apresentamos novos critérios sucientes que garantem a existência e a unicidade da cadeia estacionária e, sob restrições mais fortes, a possibilidade de fazer uma simulação perfeita. Uma caraterística interessante do nosso trabalho é o fato de não utilizarmos a condição de continuidade. / We present a new perfect simulation algorithm for stationary chains (indexed by Z) having unbounded variable length memory. This is the class of innite memory chains for which the family of transition probabilities is given by probabilistic context tree. Our condition is expressed in terms of the structure of the context tree. In particular, we do not assume the continuity of the family of transition probabilities. We give an explicit construction of the chain using a sequence of i.i.d. random variables uniformly distributed in [0,1[.
|
Page generated in 0.1065 seconds