• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 412
  • 58
  • 47
  • 19
  • 13
  • 11
  • 11
  • 11
  • 11
  • 11
  • 11
  • 7
  • 7
  • 4
  • 3
  • Tagged with
  • 692
  • 132
  • 97
  • 95
  • 76
  • 70
  • 63
  • 60
  • 56
  • 54
  • 48
  • 43
  • 38
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
611

Management de l'incertitude pour les systèmes booléens complexes - Application à la maintenance préventive des avions / Uncertainty Management for Boolean Complex Systems Application to Preventive Maintenance of Aircrafts

Jacob, Christelle 25 February 2014 (has links)
Les analyses de sûreté de fonctionnement standards sont basées sur la représentation des événements redoutés par des arbres de défaillances, qui les décrivent à l'aide de combinaison logiques d'événements plus basiques (formules Booléennes complexes). Les analyses quantitatives se font avec l'hypothèse que les probabilités d'occurrence de ces événements basiques sont connues. Le but de cette thèse est d'étudier l'impact de l'incertitude épistémique sur les événements élémentaires, ainsi que la propagation de cette incertitude à de plus hauts niveaux. Le problème soulevé est comment calculer l'intervalle de probabilité dans lequel se trouvera l'occurrence d'un événement redouté, lorsque les événements basiques qui le décrivent ont eux-mêmes une probabilité imprécise. Lorsque l'indépendance stochastique est supposée, on se retrouve avec un problème NP-hard. Nous avons donc développé un algorithme permettant de calculer l'intervalle exact dans lequel se trouvera la probabilité d'occurrence d'un événement redouté, grâce à des techniques d'analyse par intervalles. Cet algorithme a également été étendu dans le cas où les probabilités des événements basiques évolueraient en fonction du temps. Nous avons également utilisé une approche par fonctions de croyance pour étudier le cas où l'indépendance stochastique des événements ne peut pas être démontrée : on suppose alors que les probabilités viennent de différentes sources d'information Indépendantes. Dans ce cas, les mesures de plausibilité et de nécessité d'une formule Booléenne complexe sont difficiles à calculer, néanmoins nous avons pu dégager des situations pratiques dans le cadre de leur utilisation pour les Arbres de défaillances pour lesquelles elles se prêtent aux calculs. / Standard approaches to reliability analysis relies on a probabilistic analysis of critical events based on fault tree representations. However in practice, and especially for preventive maintenance tasks, the probabilities ruling the occurrence of these events are seldom precisely known. The aim of this thesis is to study the impact of epistemic uncertainty on probabilities of elementary events such as failures over the probability of some higher level critical event. The fundamental problem addressed by the thesis is thus to compute the probability interval for a Boolean proposition representing a failure condition, given the probability intervals of atomic propositions. When the stochastic independence is assumed, we face a problem of interval analysis, which is NP-hard in general. We have provided an original algorithm that computes the output probability interval exactly, taking into account the monotonicity of the obtained function in terms of some variables so as to reduce the uncertainty. We have also considered the evolution of the probability interval with time, assuming parameters of the reliability function to be imprecisely known. Besides, taking advantage of the fact that a probability interval on a binary space can be modelled by a belief function, we have solved the same problem with a different assumption, namely information source independence. While the problem of computing the belief and plausibility of a Boolean proposition are even harder to compute, we have shown that in practical situations such as usual fault-trees, the additivity condition of probability theory is still valid, which simplifies this calculation. A prototype has been developed to compute the probability interval for a complex Boolean proposition.
612

Cadeias de Markov ocultas

Medeiros, Sérgio da Silva January 2017 (has links)
Orientador: Prof. Dr. Daniel Miranda Machado / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Mestrado Profissional em Matemática em Rede Nacional, 2017. / O foco principal deste trabalho é o estudo das Cadeias de Markov e das Cadeias de Markov Ocultas. As cadeias de Markov fornecem uma forma prática para o estudo de conceitos probabilísticos e matriciais. Procuramos utilizar de forma contextualizada a aplicação do produto e potência de matrizes associados ao software Geogebra. Além dos exemplos, estão contidas questões de aprendizagem, sempre com objetivo de torná-los aliados e valiosos ao aprendizado referente a este tema. / The main focus of this work is the study of Markov Chains and the Markov Hidden Chains, which in turn brings the study of probabilistic and matrix concepts into practice. We seek to use in a contextualized way the application of the multiplication and potency of matrices associated to the software Geogebra. In addition to the examples, are contained learning issues, always with the goal of making them allies and valuable to the learning related to this theme.
613

Sistemas complexos, séries temporais e previsibilidade / Complex systems, time series and predictability

Henrique Carli 04 February 2011 (has links)
Para qualquer sistema observado, físico ou qualquer outro, geralmente se deseja fazer predições para sua evolução futura. Algumas vezes, muito pouco é conhecido sobre o sistema. Se uma série temporal é a única fonte de informação no sistema, predições de valores futuros da série requer uma modelagem da lei da dinâmica do sistema, talvez não linear. Um interesse em particular são as capacidades de previsão do modelo global para análises de séries temporais. Isso pode ser um procedimento muito complexo e computacionalmente muito alto. Nesta dissertação, nos concetraremos em um determinado caso: Em algumas situações, a única informação que se tem sobre o sistema é uma série sequencial de dados (ou série temporal). Supondo que, por detrás de tais dados, exista uma dinâmica de baixa dimensionalidade, existem técnicas para a reconstrução desta dinâmica.O que se busca é desenvolver novas técnicas para poder melhorar o poder de previsão das técnicas já existentes, através da programação computacional em Maple e C/C++.
614

[en] SOCCER CHAMPIONSHIP PROBABILITS ESTIMATION / [pt] ESTIMAÇÃO DE PROBABILIDADES EM CAMPEONATOS DE FUTEBOL

EDUARDO LIMA CAMPOS 26 October 2001 (has links)
[pt] Neste trabalho, apresentamos uma metodologia para obter probabilidades de classificação e rebaixamento de equipes em campeonatos de futebol. A metodologia consiste basicamente em quatro etapas. Na primeira etapa, ajustamos modelos de séries temporais para dados de contagem a séries de gols a favor e sofridos pelas equipes em partidas sucessivas do campeonato, utilizando variáveis explicativas para considerar o efeito do mando de campo, da participação de determinados jogadores e de mudanças de técnico. Alguns problemas referentes à construção de intervalos de confiança e testes de hipóteses para os hiperparâmetros dos modelos foram solucionados via bootstrap. Na segunda etapa, obtivemos as distribuições de probabilidade associadas aos resultados das partidas futuras do campeonato, utilizando o Princípio da Máxima Entropia para combinar as distribuições preditivas dos modelos ajustados. Na terceira etapa, utilizamos as distribuições dos resultados das partidas futuras para simular cenários para o campeonato e, na quarta e última etapa, estimamos as probabilidades de classificação e rebaixamento das equipes, pela freqüência relativa da ocorrência destes eventos em um grande número de cenários gerados. A metodologia foi aplicada no Campeonato Brasileiro/1999 e na Copa João Havelange/2000. / [en] In this thesis, we develop a methodology to obtain the probabilities of qualifying and relegating of teams, in soccer championships. The methodology consists of four steps. In the first step, we fit time series models to the series of number of goals scored in soccer matches. We account for the effects of playing at home, soccer players and changes of coaches, by introducing explanatory variables. Confidence intervals and hipothesis tests are obtained by bootstrap. In the second step, we get probability distributions of the future matches results, by combining preditive distributions of the fitted models via the Maximum Entropy Principle. In the third step, we use the distributions of the matches results to generate simulation sceneries for the champhionship. In the forth and last step, we finally estimate the probabilities of qualifying and relegating of the teams, through the relative frequencies of these events, in a great number of sceneries generated. The empirical work was carried out using data from Brazilian Champhionship/1999 and João Havelange Cup/2000.
615

Sistemas complexos, séries temporais e previsibilidade / Complex systems, time series and predictability

Henrique Carli 04 February 2011 (has links)
Para qualquer sistema observado, físico ou qualquer outro, geralmente se deseja fazer predições para sua evolução futura. Algumas vezes, muito pouco é conhecido sobre o sistema. Se uma série temporal é a única fonte de informação no sistema, predições de valores futuros da série requer uma modelagem da lei da dinâmica do sistema, talvez não linear. Um interesse em particular são as capacidades de previsão do modelo global para análises de séries temporais. Isso pode ser um procedimento muito complexo e computacionalmente muito alto. Nesta dissertação, nos concetraremos em um determinado caso: Em algumas situações, a única informação que se tem sobre o sistema é uma série sequencial de dados (ou série temporal). Supondo que, por detrás de tais dados, exista uma dinâmica de baixa dimensionalidade, existem técnicas para a reconstrução desta dinâmica.O que se busca é desenvolver novas técnicas para poder melhorar o poder de previsão das técnicas já existentes, através da programação computacional em Maple e C/C++.
616

Aplicação de modelos teóricos de distribuição de abundância das espécies na avaliação de efeitos de fragmentação sobre as comunidades de aves da Mata Atlântica / Use of the species abundance distributions to evaluate the effects os fragmentation on the bird communities of Atlantic Forest

Camila Yumi Mandai 26 October 2010 (has links)
As distribuições de abundância relativa das espécies tiveram um papel importante no desenvolvimento da ecologia de comunidades, revelando um dos padrões mais bem estabelecidos da ecologia, que é a alta dominância de algumas espécies nas comunidades biológicas. Este padrão provocou a criação de dezenas de modelos teóricos na tentativa de explicar quais mecanismos ecológicos poderiam gerá-lo. Os modelos teóricos de abundância relativa das espécies podem ser vistos como descritores das comunidades, e seus parâmetros, medidas sintéticas de dimensões da diversidade. Esses parâmetros podem ser utilizados não só como descritores biologicamente interpretáveis das comunidades, mas também como variáveis respostas a possíveis fatores ambientais que afetam as comunidades. Adotando então esta aplicação descritiva dos modelos, nosso objetivo foi comparar as comunidades de aves de áreas em um gradiente de fragmentação, utilizando como variável resposta os valores estimados do parâmetro do modelo série logarítmica, o α de Fisher. Como todos os modelos teóricos de abundância relativa propostos têm como premissa, a igualdade de probabilidade de captura entre as espécies, o que para comunidades de espécies de organismos móveis, como aves, parece pouco realista, neste trabalho investigamos também o grau de sensibilidade dos modelos quanto à quebra dessa premissa. Assim, por meio de simulações de comunidades, analisamos o viés de seleção e estimação, e revelamos que o aumento do grau de heterogeneidade entre as probabilidades de captura das espécies acarreta no incremento do viés de seleção do modelo real e também de estimação dos parâmetros. Porém, como o objetivo do estudo era identificar os fatores que influenciam a diversidade das comunidades, mesmo com o viés de estimação, talvez ainda fosse possível revelar o grau de influência sobre os valores dos parâmetros, quando ele existir. Assim, prosseguimos com mais uma etapa de simulações, em que geramos comunidades cujos valores de parâmetros tinham uma relação linear com a área dos fragmentos. O que encontramos é que independente da igualdade ou desigualdade de capturabilidade das espécies, quando o efeito existe, ele é sempre detectado, porém dependendo do grau de diferença de probabilidade de captura das espécies, o efeito pode ser subestimado. E, na ausência de efeito, ele pode ser falsamente detectado, dependendo do grau de heterogeneidade de probabilidades de captura entre as espécies, mas sempre com estimativas bem baixas para o efeito inexistente. Com esses resultados então, pudemos quantificar os tipos de efeitos da heterogeneidade de probabilidades de captura e prosseguir com as análises dos efeitos de fragmentação. O que nossos resultados mostraram é que na paisagem com 10% de cobertura vegetal, a área parece influenciar a diversidade dos fragmentos mais que o isolamento, e que na paisagem de 50% de cobertura vegetal, a variável de isolamento se torna mais importante que a área para explicar os dados. Porém, em uma interpretação mais parcimoniosa, consideramos as estimativas dos efeitos muito baixas para considerar que ele de fato existia. Com isso, concluímos que o processo de fragmentação provavelmente não tem efeito sobre a hierarquia de abundância das espécies, e é independente da porcentagem de cobertura vegetal da paisagem. Contudo, em uma descrição do número de capturas de cada espécie nos fragmentos, ponderada pelo número de capturas amostrado em áreas contínuas adjacentes, revelaram que o tamanho do fragmento pode ser importante na determinação de quais espécies serão extintas ou beneficiadas e que talvez a qualidade da matriz seja decisiva para a manutenção de espécies altamente sensíveis em fragmentos pequenos. Assim, demonstramos que, embora as SADs sejam pouco afetadas pela fragmentação, a posição das espécies na hierarquia de abundâncias pode mudar muito, o que reflete as diferenças de sensibilidade das espécies a área e isolamento dos fragmentos. / Species abundance distribution (SADs) had an important role in community ecology, revealing one of the most well established pattern in ecology, which is the high dominance by just a few species. This pattern stimulated the proposal of innumerous theoretical models in an attempt to explain the ecological mechanism which could generate it. However these models can also be a descriptor of the communities and their parameters synthetic measures of diversity. Such parameters can be used as response variables to environmental impact affecting communities. Adopting this approach our objective was to compare bird communities through areas of different levels of fragmentation, using as response variable the estimates of α, the parameter of Fishers logseries. Considering the implicit assumption of equal capture probabilities among species in SAD models we also investigated the degree of sensibility of the models when this assumption is disrespected, once it seems so unrealistic. Thus simulating communities in which species had equal and different capture probabilities among them we found that increases in the degrees of heterogeneity in species catchability lead to a gain in biases on the model selection and parameters estimations. Additionally, since our goal in this study was identify some factors that may influence the diversity in communities, even with the biases, if they were constant, maybe it was still possible to test the relation. In this context we proceed to another stage of simulations, where we generate communities whose parameter values had a linear relationship with remnant area. What we find is that regardless of equal or unequal in catchability of species, when the effect exists, it is always detected, but depending on the degree of difference in probability of catching the species, the effect may be underestimated. Further, in the absence of effect, it can be falsely detected, depending on the degree of heterogeneity of capture probabilities among species, but always with very low estimates for the effect non-existent. With these results, we could quantify the types of effects of heterogeneity on capture probabilities and proceed with the analysis of the effects of fragmentation. What we showed is that the landscape with 10% vegetation cover, the fragment area appears to influence the diversity of the fragments rather than isolation, and landscape in 50% of plant cover, the isolation variable becomes more important than area to explain the data. But in a more parsimonious interpretation, we consider the estimated of the effects too low to consider that they actually exist. Therefore, we conclude that the fragmentation process probably has no effect on the hierarchy of species abundance. However, in a description of the number of captures of each species in the fragments, weighted by the number of catches sampled in continuous adjacent areas revealed that the fragment size may be important in determining which species will be extinct or benefit and that perhaps the quality of matrix is decisive for the maintenance of highly sensitive species in small fragments. Thus, we demonstrated that while the SAD are not significantly affected by fragmentation, the position in the hierarchy of species abundances can change a lot, which reflects the different sensitivity of species to area and isolation in the fragments.
617

Modelando atualizaÃÃo bayesiana com muitos nÃo-atualizadores: o caso do prÃprio homicÃdio subjetiva risco de vitimizaÃÃo / Modeling bayesian updating with many non-updaters: the case of own subjective homicide victimization risk

Yuri Lacerda Costa 27 March 2015 (has links)
nÃo hà / Nosso principal objetivo neste estudo à investigar o papel da heterogeneidade na atualizaÃÃo, depois de um choque de informaÃÃo, do risco subjetivo sobre vitimizaÃÃo de homicÃdio. Nesse sentido, os dados utilizados neste trabalho tambÃm atestam a superestimaÃÃo do crime encontrada na literatura. A novidade à que os entrevistados receberam um choque de informaÃÃo que consiste na taxa oficial de homicÃdios, mas a grande maioria deles mantÃm a mesma percepÃÃo inicial. Ao propor um modelo de Update Bayesiano permitindo que nenhuma atualizaÃÃo fosse realizada, dois modelos foram desenvolvidos: um Tobit modificado e um modelo Hurdle de dois nÃveis. Assim como em estudos anteriores, nossos resultados mostraram que poderÃamos prosseguir com uma abordagem de Update Bayesiano. Ainda, quanto mais altas as respostas iniciais eram definidas, mais propensos os indivÃduos estavam em proceder uma mudanÃa de percepÃÃo. AlÃm disso, fundamentalmente, pudemos racionalizar a decisÃo de nÃo revisar as respostas seguindo um argumento de qualidade/credibilidade da informaÃÃo percebida. Descobrimos que os participantes mais velhos e as mulheres sÃo mais relutantes nÃo apenas em alterar as respostas iniciais, mas tambÃm na escolha do nÃvel da nova resposta, em caso de mudanÃa. Outra conclusÃo feita foi que o nÃvel educacional dos entrevistados era insignificante em nosso exercÃcio. De fato, o nÃvel educacional do entrevistador teve um papel fundamental em ambas decisÃes de mudanÃa e magnitude de revisÃo. Finalmente, nossos resultados tambÃm levantaram fortes evidÃncias sobre aspectos de homofilia. A ocorrÃncia de uma correspondÃncia em gÃnero entre entrevistadores e entrevistados teve o maior impacto sobre a decisÃo de mudar e na magnitude da atualizaÃÃo neste estudo. / Our main purpose in this study is to investigate the role of heterogeneity into the update of subjective homicide victimization risk after an informational shock. In this sense, the data used here also attests the crime overestimation found in the literature. The novelty is that our respondents faced an informational shock consisting in the official homicide rate, but the vast majority of them keeps the same initial perception. In proposing a Bayesian Update model allowing that no update takes place, two models were developed: a modified Tobit and a two-tiered Hurdle model. In accordance with previous papers, our results showed that we could proceed with a Bayesian Update approach. Also, the higher initial responses are set, more likely individuals are in proceeding a change in perceptions. Furthermore, fundamentally, we could rationalize a non-updating decision following a perceived informational quality/credibility argument. We found that older participants and females are more reluctant not only to change initial responses, but also to choose the level of the new response, in case of an update. In addition, respondentsâ level of education was insignificant in our exercise. In fact, interviewersâ level of education had a key role in both the changing and updating magnitude decisions. Finally, our results also raised strong evidence on homophily aspects. The occurance of a matching in gender between interviewers and interviewees had a major impact on the decision to change and in the magnitude of the update in this study.
618

Processos de decisão Markovianos com probabilidades imprecisas e representações relacionais: algoritmos e fundamentos. / Markov decision processes with imprecise probabilities and relational representations: foundations and algorithms.

Ricardo Shirota Filho 03 May 2012 (has links)
Este trabalho é dedicado ao desenvolvimento teórico e algorítmico de processos de decisão markovianos com probabilidades imprecisas e representações relacionais. Na literatura, essa configuração tem sido importante dentro da área de planejamento em inteligência artificial, onde o uso de representações relacionais permite obter descrições compactas, e o emprego de probabilidades imprecisas resulta em formas mais gerais de incerteza. São três as principais contribuições deste trabalho. Primeiro, efetua-se uma discussão sobre os fundamentos de tomada de decisão sequencial com probabilidades imprecisas, em que evidencia-se alguns problemas ainda em aberto. Esses resultados afetam diretamente o (porém não restrito ao) modelo de interesse deste trabalho, os processos de decisão markovianos com probabilidades imprecisas. Segundo, propõe-se três algoritmos para processos de decisão markovianos com probabilidades imprecisas baseadas em programação (otimização) matemática. E terceiro, desenvolvem-se ideias propostas por Trevizan, Cozman e de Barros (2008) no uso de variantes do algoritmo Real-Time Dynamic Programming para resolução de problemas de planejamento probabilístico descritos através de versões estendidas da linguagem de descrição de domínios de planejamento (PPDDL). / This work is devoted to the theoretical and algorithmic development of Markov Decision Processes with Imprecise Probabilities and relational representations. In the literature, this configuration is important within artificial intelligence planning, where the use of relational representations allow compact representations and imprecise probabilities result in a more general form of uncertainty. There are three main contributions. First, we present a brief discussion of the foundations of decision making with imprecise probabilities, pointing towards key questions that remain unanswered. These results have direct influence upon the model discussed within this text, that is, Markov Decision Processes with Imprecise Probabilities. Second, we propose three algorithms for Markov Decision Processes with Imprecise Probabilities based on mathematical programming. And third, we develop ideas proposed by Trevizan, Cozman e de Barros (2008) on the use of variants of Real-Time Dynamic Programming to solve problems of probabilistic planning described by an extension of the Probabilistic Planning Domain Definition Language (PPDDL).
619

Dificuldades orçamentárias básicas das famílias brasileiras: um convite à reflexão a partir de redes bayesianas / Basic budgetary difficulties of Brazilian families: an invitation to reasoning from bayesian networks

Claudia Mendes Nogueira 02 October 2012 (has links)
Este estudo visa compreender a adequação dos rendimentos às necessidades e condições de vida dos brasileiros. Observando os dados da Pesquisa de Orçamentos Familiares (POF) realizada pelo IBGE (Instituto Brasileiro de Geografia e Estatística) para o período: 2008 e 2009, o estudo identifica um modelo que se concentra na investigação sobre o fato de 75% dos domicílios brasileiros declararem dificuldades orçamentárias. Para desenvolver um modelo, foi utilizada a percepção declarada e subjetiva de adequação da renda, informada pelo chefe de família ou pessoa de referência no domicílio. O referencial teórico baseia-se no comportamento do consumidor e foca nos recursos econômicos. O método quantitativo foi desenvolvido com Inteligência Artificial, mais especificamente Redes Bayesianas. Redes Bayesianas são estruturas em forma de grafos onde as distribuições de probabilidade são representadas por nós ligados por arcos acíclicos, que podem representar ou não relações causais entre as variáveis. No final pretende-se contribuir para o conhecimento e melhoria no desenho de políticas públicas e para as empresas em geral, dando um panorama sobre o que afeta as dificuldades das famílias, proporcionando uma visão que vai além da tradicional divisão de classes econômicas. / This study aims to understand the adequacy of Brazilians´ income to their needs and living conditions. According to the data from the Household Budget Survey (POF) conducted by IBGE (Brazilian Institute of Geography and Statistics) for the years of 2008 - 2009, the study identifies a model which focuses on the investigations about the fact that 75% of Brazilian households reported budgetary difficulties. To develop a model, was used the perceived adequacy of income declared by the householder or reference person in the household. The theoretical framework was based on consumer behavior and focuses on economic resources. The quantitative method was developed by Artificial Intelligence, specifically Bayesian Networks. Bayesian Networks are structures in the form of graphs for which the probability distributions are represented by nodes connected by acyclic arcs, which may or may not represent causal relationships between variables. At the end we intend to contribute to knowledge and improvement in the design of public policies and business in general, giving a more detailed look at what affects the difficulties of families, providing a vision that goes beyond the traditional division of economic classes.
620

Relação entre seqüências de temperaturas mínimas e riscos de geadas no Estado Rio Grande do Sul. / Relation between sequence of occurrence of the minimum air temperature and frost risk in the State of Rio Grande do Sul.

Bonini, Antonio Sérgio dos Santos 23 September 2008 (has links)
Made available in DSpace on 2014-08-20T13:25:40Z (GMT). No. of bitstreams: 1 Tese_Doutorado_Antonio_Sergio_Bonini.pdf: 2347670 bytes, checksum: 55095ae0badf05144e217978479f2c94 (MD5) Previous issue date: 2008-09-23 / The minimum air temperature is one of the meteorological variables which exercises relevant influence over environmental conditions, being one of the determining factors to the growth and development of the plants. The evaluation of the minimum air temperature, in the Southern Region of Brasil, is directly related to the identification of the more adequate periods for the sowing or planting of the various cultivation, for it permits the establishment of the critical plant phase to coincide with the period of a minor probability of harmful temperature occurrence to the cultivation. Through the thirty years of daily data study of the minimum air temperature, in twelve surface meteorological stations, in the State of Rio Grande do Sul, during the months of the year, the characterization period was done with a minimum temperature within the following interval t < 3ºC. The probability of minimum temperature to be found in the referred interval was obtained through the calculation of the conditional probability and the probability of occurrence of days with the minimum temperature within an interval of seven days, using the first-order Markov Chain Model. The results obtained showed that the probability of a determined day to be found at a minimum particular temperature depends on the precedent state, confirming, satisfactorily, the adjustment of the Markov Chain Model. The study promoted the mapping of the Ecoclimatic regions of Rio Grande do Sul based on description of the minimum temperature sequence and frost risk, thought Markov Chain Model, the use of the multiple linear regression model and Conrad & Pollak Method, thus identifying the probability dates of occurrence of the first and the last frost of the year, to help in the planning and epoch of cultivation. / A temperatura mínima do ar é uma das variáveis meteorológicas que exerce relevante influência sobre as condições ambientais, sendo um dos fatores determinantes do crescimento e desenvolvimento das plantas. A avaliação da temperatura mínima do ar, na Região Sul do Brasil, está diretamente relacionada com a identificação dos períodos mais adequados para a semeadura/plantio das diversas culturas, pois permite estabelecer que as fases críticas da planta coincidam com o período de menor probabilidade de ocorrência de temperaturas prejudiciais à cultura. Através do estudo de 30 anos de dados diários de temperatura mínima do ar de doze estações meteorológicas de superfície, no Estado do Rio Grande do Sul, durante os meses do ano, foi feita a caracterização dos períodos com temperatura mínima do ar dentro do intervalo t < 3ºC. A probabilidade de a temperatura mínima se encontrar no referido intervalo foi obtida através dos cálculos de probabilidade condicional e da probabilidade de ocorrência de dias com temperatura mínima dentro de um período de sete dias, utilizando-se o modelo da Cadeia de Markov de primeira ordem. Os resultados obtidos mostraram que a probabilidade de um determinado dia encontrar-se com uma temperatura mínima particular, depende do estado precedente, comprovando satisfatoriamente o ajuste do Modelo da Cadeia de Markov. O estudo promoveu o mapeamento das Regiões Ecoclimáticas do Rio Grande do Sul com base na descrição da seqüência de temperaturas mínimas e riscos de geadas, por meio do Método Cadeia de Markov, do uso do modelo de regressão linear múltipla e do Método Conrad & Pollak, identificando, dessa forma, as probabilidades das datas de ocorrência da primeira e da última geada do ano, para auxiliar no planejamento e épocas de cultivo.

Page generated in 0.0737 seconds