Spelling suggestions: "subject:"estatística"" "subject:"statística""
801 |
Análise comparada da estabilidade robusta na perspectiva determinística e estocástica.NASCIMENTO, Alisson Castro do. 18 April 2018 (has links)
Submitted by Kilvya Braga (kilvyabraga@hotmail.com) on 2018-04-18T13:53:36Z
No. of bitstreams: 1
ALISSON CASTRO DO NASCIMENTO - DISSERTAÇÃO (PPGEQ) 2016.docx: 5565605 bytes, checksum: c2e8a916a77d583ce8d664d0ec023fce (MD5) / Made available in DSpace on 2018-04-18T13:53:36Z (GMT). No. of bitstreams: 1
ALISSON CASTRO DO NASCIMENTO - DISSERTAÇÃO (PPGEQ) 2016.docx: 5565605 bytes, checksum: c2e8a916a77d583ce8d664d0ec023fce (MD5)
Previous issue date: 2016-04-14 / CNPq / Este trabalho apresenta uma metodologia baseada em princípios da estatística clássica para determinar as regiões de estabilidade robusta de sistemas lineares ou não lineares, com um nível de conservadorismo muito menor que àqueles apresentados pelas metodologias determinísticas. O caráter aleatório das raízes da equação características do sistema, representado pelas distribuições de probabilidades diz respeito ao universo de todos os resultados possíveis para o fenômeno, sendo assim possível estabelecer o mapeamento das raízes através da métrica da distância estatística associada a função chi-quadrado para um nível de significância α. Desta forma, as raízes podem ser coletadas, gerando as distribuições de probabilidade, bem como também determinada a região no plano complexo que as contém. Um dos problemas da metodologia determinista reside em não considerar as interações entre as variáveis, como também o assim chamado “problema inverso”. Ainda no âmbito da análise determinística, pode-se observar que tal análise considera as raízes da equação característica distribuídas de acordo com a distribuição uniforme. Comparações com os métodos clássicos de análise da estabilidade como o lugar das raízes, o conceito de entrada limitada/saída limitada, ou ainda a teoria de estabilidade definida por Liapunov, também estão inclusas nas análises realizadas neste trabalho. Tais comparações têm indicado que os resultados obtidos através da metodologia desenvolvida são menos conservativos, e consequentemente produz uma análise e mapeamento da região de estabilidade robusta mais realista, pois considera todas as variáveis, os parâmetros e as interações simultâneas entre eles, sem a necessidade de avaliar contribuições isoladas relativas a análise de estabilidade. O método proposto permite também monitorar continuamente a região de estabilidade, avaliando a sua tendência, e com isso determinando a necessidade de tomada de decisão, em tempo hábil, a fim de restaurar tal região. A fim de analisar o comportamento da metodologia e os efeitos que a descreve,é utilizado um sistema reativo e outro sistema não reativo. / This work presents a methodology based on classical statistics principles with a view to determining the regions of robust stability of linear or non-linear systems, with a reduced level of conservatism relative to deterministic methods. The random nature of the roots of the characteristics equation of the system represented by their probability distributions is with regard to the universe of all possible outcomes for the phenomenon. This means that it is possible to map the roots by using the statistical distance as a metric associated with the chi-squared function to a level of significance α. Thus, the roots can be collected, thereby generating the probability distributions. In addition, the region in the complex plane that contains them is thereby established. One of the problems of deterministic methodology lies in not considering interactions between variables and another problem is the so-called "inverse problem". Within the scope of deterministic analysis, it is observed that such an analysis considers the roots of the characteristic equation are distributed uniformly. Comparisons with the classical methods of analysis of stability such as the root-locus, the concept of bounded input/bounded output and Lyapunov stability theory, are also included in the analysis made in this article. Such comparisons have indicated that the results obtained using the methodology presented are less conservative, and therefore producing an analysis and mapping of robustness of stability more realistically, because it considers all variables, parameters and simultaneous interactions between them, without the need to assess the individual contributions of each variable, related to stability analysis. The proposed method also allows a check on the stability region to be run continuously, thus assessing its tendency, and therefore determining the need for decision-making, in a timely manner, in order to restore such a region. In work is used a reactive system and other non-reactive system, in order to evaluate the behavior of the methodology and it is effects.
|
802 |
Análise, imputação de dados e interfaces computacionais em estudos de séries temporais epidemiológicas / Analysis, data imputation and computer interfaces in time-series epidemiologic studiesWashington Leite Junger 01 April 2008 (has links)
efeitos são frequentemente observados na morbidade e mortalidade por doenças respiratórias e cardiovasculares, câncer de pulmão, diminuição da função respiratória, absenteísmo escolar e problemas relacionados com a gravidez. Estudos também sugerem que os grupos mais suscetíveis são as crianças e os idosos. Esta tese apresenta estudos sobre o efeito da poluição do ar na saúde na saúde na cidade do Rio de Janeiro e aborda aspectos metodológicos sobre a análise de dados e imputação de dados faltantes em séries temporais epidemiológicas. A análise de séries temporais foi usada para estimar o efeito da poluição do ar na mortalidade de pessoas idosas por câncer de pulmão com dados dos anos 2000 e 2001. Este estudo teve como objetivo avaliar se a poluição do ar está associada com antecipação de óbitos de pessoas que já fazem parte de uma população de risco. Outro estudo foi realizado para avaliar o efeito da poluição do ar no baixo peso ao nascer de nascimentos a termo. O desenho deste estudo foi o de corte transversal usando os dados disponíveis no ano de 2002. Em ambos os estudos foram estimados efeitos moderados da poluição do ar. Aspectos metodológicos dos estudos epidemiológicos da poluição do ar na saúde também são abordados na tese. Um método para imputação de dados faltantes é proposto e implementado numa biblioteca para o aplicativo R. A metodologia de imputação é avaliada e comparada com outros métodos frequentemente usados para imputação de séries temporais de concentrações de poluentes atmosféricos por meio de técnicas de simulação. O método proposto apresentou desempenho superior aos tradicionalmente utilizados. Também é realizada uma breve revisão da metodologia usada nos estudos de séries temporais sobre os efeitos da poluição do ar na saúde. Os tópicos abordados na revisão estão implementados numa biblioteca para a análise de dados de séries temporais epidemiológicas no aplicativo estatístico R. O uso da biblioteca é exemplificado com dados
de internações hospitalares de crianças por doenças respiratórias no Rio de Janeiro. Os estudos de cunho metodológico foram desenvolvidos no âmbito do estudo multicêntrico para avaliação dos efeitos da poluição do ar na América Latina o Projeto ESCALA. / Air pollution is a public health problem in major urban areas and its effects are frequently observed in the morbidity and mortality due respiratory and cardiovascular causes, lung
cancer, decreasing in the respiratory function, school absenteeism, and pregnancy outcomes. This thesis presents studies on the effects of air pollution on health in the Rio de Janeiro city and tackle some methodological issues on data analysis and missing data imputation in epidemiologic time series. Daily time series were used to estimate the effect of the air pollution on deaths among the elderly due to lung cancer during 2000 and 2001. The purpose of the study was to evaluate if air pollution is associated with premature deaths of people that already are in risk population. Another study was conducted to assess the relationship between air pollution and low birth weight of singleton full term babies. A crosssectional
design was used on data available during the year 2002. Moderate effects of the air pollution were estimated in both studies. Methodological aspects of epidemiologic studies on air
pollution are also approached. A data imputation method is presented and implemented as library for the statistical package R. The imputation methodology is evaluated and compared
to others often used for data imputation in time series of air pollutant concentrations, through simulation techniques. The proposed method has shown best performance compared to those traditionally used. A brief review on the methodology used in the time series studies on the effects of air pollution on health is also presented. The issues approached in the review are also implemented as a library for the analysis of epidemiologic time series in R. The use of the library is exemplified with the analysis on the data of hospital admissions of children due to respiratory causes in the city of Rio de Janeiro. The methodological studies were carried out under the umbrella of the multi-city study to assess the effects of air pollution on health in the Latin America the ESCALA Project.
|
803 |
Obtenção dos níveis de significância para os testes de Kruskal-Wallis, Friedman e comparações múltiplas não-paramétricas. / Obtaining significance levels for Kruskal-Wallis, Friedman and nonparametric multiple comparisons tests.Antonio Carlos Fonseca Pontes 29 June 2000 (has links)
Uma das principais dificuldades encontradas pelos pesquisadores na utilização da Estatística Experimental Não-Paramétrica é a obtenção de resultados confiáveis. Os testes mais utilizados para os delineamentos com um fator de classificação simples inteiramente casualizados e blocos casualizados são o de Kruskal-Wallis e o de Friedman, respectivamente. As tabelas disponíveis para estes testes são pouco abrangentes, fazendo com que o pesquisador seja obrigado a recorrer a aproximações. Estas aproximações diferem dependendo do autor a ser consultado, podendo levar a resultados contraditórios. Além disso, tais tabelas não consideram empates, mesmo no caso de pequenas amostras. No caso de comparações múltiplas isto é mais evidente ainda, em especial quando ocorrem empates ou ainda, nos delineamentos inteiramente casualizados onde se tem número diferente de repetições entre tratamentos. Nota-se ainda que os softwares mais utilizados em geral recorrem a aproximações para fornecer os níveis de significância, além de não apresentarem resultados para as comparações múltiplas. Assim, o objetivo deste trabalho é apresentar um programa, em linguagem C, que realiza os testes de Kruskal-Wallis, de Friedman e de comparações múltiplas entre todos os tratamentos (bilateral) e entre os tratamentos e o controle (uni e bilateral) considerando todas as configurações sistemáticas de postos ou com 1.000.000 de configurações aleatórias, dependendo do número total de permutações possíveis. Dois níveis de significância são apresentados: o DW ou MaxDif , baseado na comparação com a diferença máxima dentro de cada configuração e o Geral, baseado na comparação com todas as diferenças em cada configuração. Os valores do nível de significância Geral assemelham-se aos fornecidos pela aproximação normal. Os resultados obtidos através da utilização do programa mostram, ainda, que os testes utilizando as permutações aleatórias podem ser bons substitutos nos casos em que o número de permutações sistemáticas é muito grande, já que os níveis de probabilidade são bastante próximos. / One of the most difficulties for the researchers in using Nonparametric Methods is to obtain reliable results. Kruskal-Wallis and Friedman tests are the most used for one-way layout and for randomized blocks, respectively. Tables available for these tests are not too wild, so the research must use approximate values. These approximations are different, depending on the author and the results can be not similar. Furthermore, these tables do not taking account tied observations, even in the case of small sample. For multiple comparisons, this is more evident, specially when tied observations occur or the number of replications is different. Many softwares like SAS, STATISTICA, S-Plus, MINITAB, etc., use approximation in order to get the significance levels and they do not present results for multiple comparisons. Thus, the aim of this work is to present a routine in C language that runs Kruskal-Wallis, Friedman and multiple comparisons among all treatments (bi-tailed) and between treatment and control (uni and bi-tailed), considering all the systematic configurations of the ranks or with more than 1,000,000 random ones, depending on the total of possible permutations. Two levels of significance are presented: DW or MaxDif, based on the comparison of the maximum difference within each configuration and the Geral, based on the comparison of all differences for each configuration. The Geral values of the significance level are very similar for the normal approximation. The obtaining results through this routine show that, the tests using random permutations can be nice substitutes for the case of the number of systematic permutations is too large, once the levels of probability are very near.
|
804 |
A disseminação de informações estatísticas na web: da difusão à divulgação / Dissemination of Statistical Information in the Web: diffusion to spreadingJoice Claudia de Carvalho Camargo 07 April 2006 (has links)
Verifica como as Instituições oficiais de informação estatística lidam com a disseminação numa nova mídia, observando de que maneira disponibilizam suas informações na Web, investigando o tratamento, a disponibilização e o acesso dado às informações nos sites estatísticos, estabelecendo relações entre a forma de estruturação dessas informações, a navegação dos sites e o uso das ferramentas da linguagem da Web para criar os contextos de entendimento da informação estatística. Observa em que medida as interfaces criadas nos sites estatísticos garantem a circulação da informação pelos diversos segmentos do público usuário, a partir do conceito de Espiral da Cultura Científica proposto por Vogt (2003) e tem como objetivo verificar, supondo a cultura para a ciência, como as informações veiculadas alcançam os atores envolvidos no processo de circulação da informação. Foram considerados os sites de instituições oficiais governamentais, nacionais e internacionais, responsáveis ou participantes de sistemas nacionais de estatísticas demográficas e socioeconômicas, dentre os quais, três foram selecionados: IBGE Instituto Brasileiro de Geografia e Estatística (Brasil), INE Instituto Nacional de Estatística (Portugal) e INEGI Instituto Nacional de Estadística, Geografia e Informática (México). Pela observação, pudemos perceber que a Web dispõe de recursos únicos para a difusão e divulgação do conhecimento científico, sendo instrumento de grande valia na sua disseminação. Exemplos interessantes foram encontrados nos sites observados, destancando-se os recursos de contextualização dos dados, o uso da linguagem e de ícones significativos e a associação das informações por meio de links. / It verifies how the official Institutions of statistics information deal with the dissemination in a new media, observing how they show the information on the WEB. The treatment, the dissemination form / way and the access to the information to statistical sites are analyzed to establish relations between the information structures form, the language form, the site navigation and the use of Web tools to create the contexts of agreement of the information. Remark how the new interfaces created on the statistical sites guarantee the information dissemination for the diverse segments of the public use, from the Vogts concept (2003) in Spiral of the Scientific Culture, and has as objective to verify, assuming the culture for science, how the propagated information reach the involved actors on the statistical information dissemination process The governmental official institutions Web sites, nationals or internationals, responsible or participant of national systems of demographic and social-economics statisticians had been considered which we select: the (IBGE) Brazilian Institute of Geography and Statistics site ( Brazil), the (INE) National Statistics Institute site (Portugal) and the (INEGI) National Institute of Statistics, Geography and Computer Science (Mexico). For the comment, we even could notice that Web makes use of only resources for the diffusion and spreading of the scientific knowledge, however much of the diffusion and the spreading mainly demands the comment of the language questions. Interesting examples had been found in the observed sites, detaching the resources of the data context, the use of the language and significant icons and the association of the information by links.
|
805 |
Análise de livros didáticos conforme as considerações do Programa Nacional do Livro Didático : estatística e probabilidade / Analysis of textbooks according to National Textbook Program : statistics and probabilitySantos, Danilo Messias Nascimento e 15 March 2016 (has links)
The National Textbook Program (PNLD) aims to choose, through a Public Notice, textbooks collections to be used in classrooms of public primary education and prepare, at the end of the procedure, a Guide of textbooks for teachers to choose them according to the considerations and reviews elaborated. So, by the importance of Statistics and Probability, which are applied in daily life in different situations, and because in the Guide there are predatory and classificatory aspects asked in the Public Notice, in a more analytical way for each collection, we investigated in this research if the collections approved in 2015 PNLD contain the recommendations of the program for these subjects. For this, in a first stage, we selected five collections of high school (appointed by L1, L2, L3, L4 and L5) that were adopted by public schools in Sergipe and evaluated according to the content analysis technique, making categories, according to the considerations of the Guide. In order to close a cycle, that connects PNLD – Textbook –Teacher, we also researched, in a second stage, the opinion of some mathematics teachers who teach in high school and are studying master's degree at the Federal University of Sergipe on, essentially, the choice of textbooks and the way they approach the statistics. For this, we applied a questionnaire and used the descriptive and statistical analysis technique as well as the content analysis. Thus, among the categories in the first phase, there are the Textbooks Presentation and the contents distribution, in which we highlighted our views about the cover, title and we verified quantitatively how they distributed the contents of Statistics and Probability. Moreover, we observed the Teaching and Learning Methodology, and we found out that all the collections used an approach that supports a passive learning, with no moment for reflection, except for specific sections. Concerning to the use of technologies, some textbooks bring examples to be used with the contents of Data Analysis area, such as software and calculator tutorials use. Another examined feature was the contextualization, defined by the Guide under the aspects of social practices and the history of mathematics. In the first, we note the inclusion in all collections through sections or exercises and in the second we realized that only one collection brings historical figures of Statistics. Moreover, few books discuss the historical evolution of the concepts and the social, economic and scientific reasons which led to the advancement of mathematics. The last category of this stage was the specific topics of Statistics and Probability, which we highlighted as the data collection stimulus or if the textbook uses a different definition of probability, beyond the classic. In the second stage of the investigation, more practical, the analysis showed that the respondents declare to know the PNLD, but they are not guided by the guide to choose collections that they will use in the classroom. The approach of statistics in textbook is considered partially satisfactory, with summarized contents and little stimuli to data collection projects. Therefore, we reflect if the federal funds earmarked for this program are being undervalued and if the collections are even being improved in accordance with the National Curriculum Guidelines, which is the basis of inquiry for the preparation of the Textbook Guide. / O Programa Nacional do Livro Didático visa a escolher, através de um edital, coleções de livros didáticos que serão utilizadas em salas de aula do ensino básico público e elabora, ao término do trâmite, um Guia para que os professores as escolham de acordo com as considerações e resenhas elaboradas por esse. Então, pela importância da Estatística e Probabilidade, que são aplicadas no cotidiano nas mais diversas situações e, por no Guia estarem contidos os aspectos eliminatórios e classificatórios pedidos no edital, de forma mais analítica para cada coleção, investigamos, nessa pesquisa, se as coleções aprovadas no PNLD 2015 contêm as recomendações desse programa para esses assuntos. Para isso, em uma primeira etapa, selecionamos, para análise, cinco coleções de Ensino Médio (nomeadas por L1, L2, L3, L4 e L5) que foram adotadas pelas escolas públicas de Sergipe e as avaliamos, segundo a técnica de Análise de Conteúdo, compondo categorias, conforme as considerações do Guia de Livros Didáticos. A fim de fechar um ciclo, que liga PNLD – Livro Didático – Professor, também pesquisamos, em uma segunda etapa, a opinião de alguns professores de Matemática que lecionam no Ensino Médio e estão fazendo mestrado na Universidade Federal de Sergipe sobre, essencialmente, a escolha do livro didático e a forma que estes abordam a Estatística. Para isso, valemos da aplicação de um questionário e usamos a técnica de análise estatística descritiva e Análise de Conteúdo. Assim, entre as categorias na primeira fase estão a Apresentação das Obras e Distribuição dos Conteúdos, em que evidenciamos nossas impressões sobre capa, título, além de verificarmos quantitativamente como estavam distribuídos os conteúdos de Estatística e Probabilidade. Além disso, teve a Metodologia de Ensino e Aprendizagem, pela qual constatamos que todas as coleções têm uma abordagem metodológica que privilegia um aprendizado passivo, sem espaço para reflexões, a não ser por seções específicas que estimulam o aluno a pensar. No aspecto metodológico do uso de tecnologias, algumas obras trazem exemplos para serem usados nos assuntos da área de Análise de Dados, como softwares e tutoriais de uso da calculadora, com destaque para a L5, e outras os abordam apenas no manual do professor. Outra categoria analisada foi a Contextualização, que o Guia define sob os aspectos das práticas sociais e da História da Matemática. No primeiro, notamos a inserção em todas as coleções, por meio de seções ou exercícios, e no segundo percebemos que só uma coleção trata de personagens históricos da Estatística. Ademais, poucas discutem a evolução histórica dos conceitos e as motivações sociais, econômicas e científicas que levaram ao avanço da Matemática, conforme preza o Guia. A última categoria dessa etapa foram os Tópicos Específicos de Estatística e Probabilidade, que destacamos das considerações como o estímulo à coleta de dados ou se a obra utiliza uma outra definição de Probabilidade, além da clássica. A coleção mais completa em nossa análise foi a L2. Na segunda etapa, mais prática, a análise mostrou que os professores afirmam conhecer o PNLD, mas não se orientam pelo Guia de Livros Didáticos para escolherem as coleções que utilizarão em sala de aula. A abordagem da Estatística no livro didático é considerada parcialmente satisfatória, com conteúdos resumidos, e poucas obras estimulam projetos de coleta de dados. Portanto, refletimos se os recursos federais destinados a esse programa estão sendo subvalorizados e se as coleções estão mesmo se aperfeiçoando de acordo com as diretrizes curriculares nacionais, que é a base de consulta para a elaboração do Guia de Livros Didáticos.
|
806 |
A cultura e a informação estatística nacional: entre o desejado e o possívelRibeiro, Ana Rosa Pais 31 March 2011 (has links)
Made available in DSpace on 2015-10-19T11:50:20Z (GMT). No. of bitstreams: 1
anarosa2011.pdf: 1001047 bytes, checksum: 6e18431e349195d38172a0cc8897a5d2 (MD5)
Previous issue date: 2011-03-31 / The present study lies in the field in the field of official for culture. It considers the statistical information as a social phenomenon, representing a construction of reality agreed that ideally follows the scientific concepts and definitions, legal or national and international consensus / O presente estudo situa-se no campo das informações estatísticas oficiais para a cultura. Considera a informação estatística como um fenômeno social, representando uma construção, convencionada da realidade, que decorre idealmente de conceitos e definições científicas, de ordenamentos jurídicos ou de consensos nacionais e internacionais
|
807 |
Diagnóstico de influência em modelos com erros na variável skew-normal/independente / Influence of diagnostic in models with errors in variable skew-normal/independentCarvalho, Rignaldo Rodrigues 17 August 2018 (has links)
Orientadores: Victor Hugo Lachos Dávila, Filidor Edilfonso Vilca Labra / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-17T09:37:18Z (GMT). No. of bitstreams: 1
Carvalho_RignaldoRodrigues_M.pdf: 1849605 bytes, checksum: 07ea5638a2dbfa2227f9a949d4723bbf (MD5)
Previous issue date: 2010 / Resumo: O modelo de medição de Barnett é frequentemente usado para comparar vários instrumentos de medição. é comum assumir que os termos aleatórios têm uma distribuição normal. Entretanto, tal suposição faz a inferência vulnerável a observações atípicas por outro lado distribuições de misturas de escala skew-normal tem sido uma interessante alternativa para produzir estimativas robustas tendo a elegância e simplicidade da teoria da máxima verossimilhança. Nós usamos resultados de Lachos et al. (2008) para obter a estimação dos parâmetros via máxima verossimilhança, baseada no algoritmo EM, o qual rende expressões de forma fechada para as equações no passo M. Em seguida desenvolvemos o método de influência local de Zhu e Lee (2001) para avaliar os aspectos de estimação dos parâmetros sob alguns esquemas de perturbação. Os resultados obtidos são aplicados a conjuntos de dados bastante estudados na literatura, ilustrando a utilidade da metodologia proposta / Abstract: The Barnett measurement model is frequently used to comparing several measuring devices. It is common to assume that the random terms have a normal distribution. However, such assumption makes the inference vulnerable to outlying observations whereas scale mixtures of skew-normal distributions have been an interesting alternative to produce robust estimates keeping the elegancy and simplicity of the maximum likelihood theory. We used results in Lachos et al. (2008) for obtaining parameter estimation via maximum likelihood, based on the EM-algorithm, which yields closed form expressions for the equations in the M-step. Then we developed the local influence method to assessing the robustness aspects of these parameter estimates under some usual perturbation schemes. Results obtained for one real data set are reported, illustrating the usefulness of the proposed methodology / Mestrado / Métodos Estatísticos / Mestre em Estatística
|
808 |
Estatística descritiva, probabilidade e estimação: noções para o ensino básico / Descriptive statistics, probability and estimation: concepts for basic educationRios, Evandro de Moura 26 September 2014 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2015-03-26T14:26:32Z
No. of bitstreams: 2
Dissertação - Evandro de Moura Rios - 2014.pdf: 4832237 bytes, checksum: e90ddc9df15563d7f0235b4ced6a6bd7 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-03-27T10:41:05Z (GMT) No. of bitstreams: 2
Dissertação - Evandro de Moura Rios - 2014.pdf: 4832237 bytes, checksum: e90ddc9df15563d7f0235b4ced6a6bd7 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-03-27T10:41:05Z (GMT). No. of bitstreams: 2
Dissertação - Evandro de Moura Rios - 2014.pdf: 4832237 bytes, checksum: e90ddc9df15563d7f0235b4ced6a6bd7 (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Previous issue date: 2014-09-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In this paper we describe all the descriptive statistic and much of statistical inference. After this theoretical framework, we try to draw a paralled between what is studied since ekementary school, and what is done graduations. We conclude with some descriptions of practical lessons that worked some basic concepts of statistical inference. / Neste trabalho descrevemos toda a estatística descritiva e boa parte da estatística inferencial. Após este referencial teórico, procuramos fazer um paralelo entre o que é estudado desde o ensino fundamental e o que é feito nas graduações. Concluímos com algumas descrições de aulas práticas que trabalham alguns conceitos básicos da inferência estatística.
|
809 |
Modelo computacional para determinação do risco econômico em culturas irrigadas / Computational model for economical risk determination in irrigated culturesPatricia Angélica Alves Marques 26 August 2005 (has links)
As empresas agrícolas atuam sob condições de risco, dessa maneira a utilidade de modelos determinísticos para fins de planejamento torna-se relativamente limitada. Isto implica na necessidade de não se desprezar a aleatoriedade de determinados coeficientes e introduzir o risco na análise do projeto. Com este objetivo, desenvolveu-se uma ferramenta na forma de um Modelo Computacional para Determinação do Risco Econômico em Culturas Irrigadas, para o ambiente Windows XP em linguagem Delphi 7.0, que permite simular situações de implantação e manejo da irrigação e suas conseqüências econômicas sob o horizonte de risco. Esse modelo considera, na forma de um projeto, as características agronômicas pertinentes ao solo, a cultura e ao clima, para estudar, de maneira regional, o armazenamento de água no solo, a evapotranspiração, o desenvolvimento da cultura durante as fases fenológicas e o preço de venda do produto. Para atingir o objetivo o modelo realiza simulações dos parâmetros de preço de venda do produto, taxa de manutenção do sistema de irrigação, horas de trabalho necessárias por hectare e por irrigação realizada, preço da água, vida útil do sistema de irrigação e taxa de juros; as quais são classificadas em classes, sendo: cinco classes para vida útil, taxa de manutenção, horas de trabalho necessárias por hectare e por irrigação realizada, preço da água e juros, e 10 classes para o preço de venda do produto. Com esses parâmetros o modelo computacional gera 31.250 valores de benefícios líquidos anuais combinados das classes com suas respectivas probabilidades de ocorrência, permitindo assim um estudo probabilístico dos possíveis resultados da decisão de aquisição do sistema de irrigação. Como resultados essa ferramenta simula e fornece a distribuição de probabilidades dos fatores econômicos e calcula os custos fixos, custos variáveis, custos totais e benefícios líquidos anuais da irrigação. Com os 31.250 valores de benefícios líquidos anuais e suas probabilidades realiza o teste de aderência às funções de densidade de probabilidade normal ou triangular e posteriormente exibe as probabilidades de viabilidade do projeto, a relação benefício/custo, valor esperado de benefício líquido, desvio absoluto, variância, desvio padrão e coeficiente de variação como índices econômicos envolvidos na decisão de irrigar ou não irrigar. Apresenta também uma análise de sensibilidade do benefício líquido anual em função da variação dos fatores econômicos e a participação em porcentagem dos fatores econômicos na formação do custo total da irrigação. Nas análises realizadas sobre a irrigação da cana-de-açúcar para região de Piracicaba, todos os sistemas testados apresentaram relação benefício/custo inferior a um e valores esperados de benefício líquido anual da irrigação negativos, indicando inviabilidade. A utilização do motor diesel apresentou para todos os sistemas, probabilidade nula de ocorrência de benefício líquido anual maior que zero. Dentre os sistemas analisados o pivô central apresentou a maior probabilidade de ocorrência de benefício líquido anual maior que zero (10,70%) utilizando energia elétrica. No caso da irrigação do tomate industrial na região de Piracicaba todos os sistemas testados apresentaram viabilidade, isto é, relação benefício/custo sempre maior que um e valores esperados de benefício líquido anual positivos. Dentre eles a aspersão convencional apresentou a maior relação benefício/custo (média de 4,74), o maior valor esperado de benefício líquido anual (R$ 1.582,60 ha-1 ano-1) e o menor risco com um desvio padrão de R$ 363,99 ha-1 ano-1. / The agricultural companies were submitted to risky conditions, so the utility of deterministic models to planning is relatively limited. That implies in not despise the randomness of some coefficients and to introduce them in the project analysis. As a proposal of this work a Computational model for risk determination in irrigated cultures was elaborated for Windows XP® in Delphi 7.0 language, that allow the simulation of implanting and managing irrigations projects and their economical consequences under the risk conditions. This model considers, in a project form, the agronomical characteristics of the soil, of the culture and of the climate, to study, regionally, the water storage in the soil, the evapotranspiration, the culture development during the phenological phases and the selling price of the product. To reach its objectives the model accomplishes simulations in the selling price of the product, maintaining cost of the irrigation system, hours of needed work by hectare and per irrigation, water cost, useful life of the system and the welfare taxes, that were classified in classes as: five for useful live, maintain tax, hours of needed work by hectare and per irrigation, water cost and welfare taxes; and ten for selling price. With those parameters the model generated 31,250 values of annual combined liquid profits of the classes with their respective probability of occurrence, allowing a probabilistic study of the possible results in the acquisition of an irrigation system, e.g., the probability of the project viability. This tool, as its results, simulates and displays the economical factor probability and calculates the variable and the non variable costs, total costs and annual profits of irrigation. With the 31,250 values of annual profits and their probabilities, it realizes the adherence test to the density functions of normal or triangular probability and exhibits the project viability probabilities, cost/profit relation, expected value of liquid profit, absolute deviance, variance, standard deviation and coefficient of variation as economical indexes involved in the decision of or not of to irrigate. It also presents a sensibility analysis of the annual profit as a function of the economical variation factors and the participation, in percentage, of those factors in the total cost of the irrigation. In the analysis of sugarcane irrigation in the Piracicaba region, all tested systems showed a cost/profit relation inferior to one and expected annual irrigation profit values negative indicating the inviability. The use of a diesel motor, for any system, showed the null probability of the annual profit to be higher then zero. Among the tested systems the center pivot showed the highest probability of annual liquid profits higher then zero (10.7%) using electrical energy. In the case of tomato culture for industry under irrigation, in the Piracicaba region, all systems were viable, e.g., the relation cost/profit ever higher then one and expected values of annual liquid profits positive. Among them the conventional aspersion showed the higher relation between cost/profit with a mean of 4.74, the highest expected value of annual liquid profit of R$ 1,582.60 ha-1 year-1 and with the lower risk with standard deviation of R$ 363.99 ha-1 year-1.
|
810 |
Modelo estocástico para estimação da produtividade de soja no Estado de São Paulo utilizando simulação normal bivariada / Sthocastic model to estimate the soybean productivity in the State of São Paulo through bivaried normal simulationThomas Newton Martin 08 February 2007 (has links)
A disponibilidade de recursos, tanto de ordem financeira quanto de mão-de-obra, é escassa. Sendo assim, deve-se incentivar o planejamento regional que minimize a utilização de recursos. A previsão de safra por intermédio de técnicas de modelagem deve ser realizada anteriormente com base nas características regionais, indicando assim as diretrizes básicas da pesquisa, bem como o planejamento regional. Dessa forma, os objetivos deste trabalho são: (i) caracterizar as variáveis do clima por intermédio de diferentes distribuições de probabilidade; (ii) verificar a homogeneidade espacial e temporal para as variáveis do clima; (iii) utilizar a distribuição normal bivariada para simular parâmetros utilizados na estimação de produtividade da cultura de soja; e (iv) propor um modelo para estimar a ordem de magnitude da produtividade potencial (dependente da interação genótipo, temperatura, radiação fotossinteticamente ativa e fotoperíodo) e da produtividade deplecionada (dependente da podutividade potencial, da chuva e do armazenamento de água no solo) de grãos de soja, baseados nos valores diários de temperatura, insolação e chuva, para o estado de São Paulo. As variáveis utilizadas neste estudo foram: temperatura média, insolação, radiação solar fotossinteticamente ativa e precipitação pluvial, em escala diária, obtidas em 27 estações localizadas no Estado de São Paulo e seis estações localizadas em Estados vizinhos. Primeiramente, verificou-se a aderência das variáveis a cinco distribuições de probabilidade (normal, log-normal, exponencial, gama e weibull), por intermédio do teste de Kolmogorov-Smirnov. Verificou-se a homogeneidade espacial e temporal dos dados por intermédio da análise de agrupamento pelo método de Ward e estimou-se o tamanho de amostra (número de anos) para as variáveis. A geração de números aleatórios foi realizada por intermédio do método Monte Carlo. A simulação dos dados de radiação fotossinteticamente ativa e temperatura foram realizadas por intermédio de três casos (i) distribuição triangular assimétrica (ii) distribuição normal truncada a 1,96 desvio padrão da média e (iii) distribuição normal bivariada. Os dados simulados foram avaliados por intermédio do teste de homogeneidade de variância de Bartlett e do teste F, teste t, índice de concordância de Willmott, coeficiente angular da reta, o índice de desempenho de Camargo (C) e aderência à distribuição normal (univariada). O modelo utilizado para calcular a produtividade potencial da cultura de soja foi desenvolvido com base no modelo de De Wit, incluindo contribuições de Van Heenst, Driessen, Konijn, de Vries, dentre outros. O cálculo da produtividade deplecionada foi dependente da evapotranspiração potencial, da cultura e real e coeficiente de sensibilidade a deficiência hídrica. Os dados de precipitação pluvial foram amostrados por intermédio da distribuição normal. Sendo assim, a produção diária de carboidrato foi deplecionada em função do estresse hídrico e número de horas diárias de insolação. A interpolação dos dados, de modo a englobar todo o Estado de São Paulo, foi realizada por intermédio do método da Krigagem. Foi verificado que a maior parte das variáveis segue a distribuição normal de probabilidade. Além disso, as variáveis apresentam variabilidade espacial e temporal e o número de anos necessários (tamanho de amostra) para cada uma delas é bastante variável. A simulação utilizando a distribuição normal bivariada é a mais apropriada por representar melhor as variáveis do clima. E o modelo de estimação das produtividades potencial e deplecionada para a cultura de soja produz resultados coerentes com outros resultados obtidos na literatura. / The availability of resources, as much of financial order and human labor, is scarse. Therefore, it must stimulates the regional planning that minimizes the use of resources. Then, the forecast of harvests through modelling techniques must previously on the basis of be carried through the regional characteristics, thus indicating the routes of the research, as well as the regional planning. Then, the aims of this work are: (i) to characterize the climatic variables through different probability distributions; (ii) to verify the spatial and temporal homogeneity of the climatic variables; (iii) to verify the bivaried normal distribution to simulate parameters used to estimate soybean crop productivity; (iv) to propose a model of estimating the magnitud order of soybean crop potential productivity (it depends on the genotype, air temperature, photosynthetic active radiation; and photoperiod) and the depleted soybean crop productivity (it pedends on the potential productivity, rainfall and soil watter availability) based on daily values of temperature, insolation and rain, for the State of São Paulo. The variable used in this study had been the minimum, maximum and average air temperature, insolation, solar radiation, fotosynthetic active radiation and pluvial precipitation, in daily scale, gotten in 27 stations located in the State of São Paulo and six stations located in neighboring States. First, it was verified tack of seven variables in five probability distributions (normal, log-normal, exponential, gamma and weibull), through of Kolmogorov-Smirnov. The spatial and temporal verified through the analysis of grouping by Ward method and estimating the sample size (number of years) for the variable. The generation of random numbers was carried through the Monte Carlo Method. The simulation of the data of photosyntetic active radiation and temperature had been carried through three cases: (i) nonsymetric triangular distribution (ii) normal distribution truncated at 1.96 shunting line standard of the average and (iii) bivaried normal distribution. The simulated data had been evaluated through the test of homogeneity of variance of Bartlett and the F test, t test, agreement index of Willmott, angular coefficient of the straight line, the index of performance index of Camargo (C) and tack the normal distribution (univarieted). The proposed model to simulate the potential productivity of soybean crop was based on the de Wit concepts, including Van Heenst, Driessen, Konijn, Vries, and others researchers. The computation of the depleted productivity was dependent of the potential, crop and real evapotranspirations and the sensitivity hydric deficiency coefficient. The insolation and pluvial precipitation data had been showed through the normal distribution. Being thus, the daily production of carbohydrate was depleted as function of hydric stress and insolation. The interpolation of the data, in order to consider the whole State of Sao Paulo, was carried through the Kriging method. The results were gotten that most of the variable can follow the normal distribution. Moreover, the variable presents spatial and temporal variability and the number of necessary years (sample size) for each one of them is sufficiently changeable. The simulation using the bivaried normal distribution is most appropriate for better representation of climate variable. The model of estimating potential and depleted soybean crop productivities produces coherent values with the literature results.
|
Page generated in 0.0852 seconds