Spelling suggestions: "subject:"probabilidades"" "subject:"probabilidade""
361 |
Avaliação das informações oficiais sobre mortalidade por causas externas em menores de 18 anos : Duque de Caxias, RJ : a confiabilidade da causa básica nas declarações de óbito por acidentes e violênciasEneida Márcia de Souza Simões 02 October 2000 (has links)
Este estudo visou avaliar a qualidade das informações oficiais relativas a mortalidade por causas externas em menores de 18 anos, residentes no Município de Duque de Caxias, cujos óbitos tivessem ocorrido em 1995 e 1996. Foram comparadas as codificações da causa básica feitas a partir da Declaração de Óbito emitida pelo Instituto Médico Legal com a Declaração de Óbito complementada pela Secretaria Municipal de Saúde da causa básica obtida pela pesquisa que utilizou como fonte de informações os laudos necroscópicos e os Registros de Ocorrência Policial. A dissertação está estruturada em três partes. A primeira parte são apresentados os dados de mortalidade por causas externas no Brasil. A descrição detalhada do material e método de trabalho utilizados, contemplando a coleta de informações na Secretaria Municipal de Saúde e no Instituto Médico Legal, controle da qualidade do processo de coleta de dados e a análise dos mesmos. Os resultados e a conclusão indicam a fraca concordância entre o Instituto Médico Legal tanto em relação a Secretaria Municipal de Saúde, quanto a pesquisa, nos dois anos analisados. Por outro lado a concordância substancial (1995) ou moderada (1996) entre a Secretaria Municipal de Saúde e a pesquisa apontam para uma confiabilidade das informações oficiais sobre mortalidade por causas externas. Na última parte, procura-se mapear o perfil das vítimas e os tipos de acidentes e violências que ocasionaram suas mortes, além de apresentar algumas propostas, no âmbito do setor saúde, para a prevenção desses eventos assim como o atendimento as vítimas.
|
362 |
Sistemas complexos, séries temporais e previsibilidade / Complex systems, time series and predictabilityHenrique Carli 04 February 2011 (has links)
Para qualquer sistema observado, físico ou qualquer outro, geralmente se deseja fazer predições para sua evolução futura. Algumas vezes, muito pouco é conhecido sobre o sistema. Se uma série temporal é a única fonte de informação no sistema, predições de valores futuros da série requer uma modelagem da lei da dinâmica do sistema, talvez não linear. Um interesse em particular são as capacidades de previsão do modelo global para análises de séries temporais. Isso pode ser um procedimento muito complexo e computacionalmente muito alto. Nesta dissertação, nos concetraremos em um determinado caso: Em algumas situações, a única informação que se tem sobre o sistema é uma série sequencial de dados (ou série temporal). Supondo que, por detrás de tais dados, exista uma dinâmica de baixa dimensionalidade, existem técnicas para a reconstrução desta dinâmica.O que se busca é desenvolver novas técnicas para poder melhorar o poder de previsão das técnicas já existentes, através da programação computacional em Maple e C/C++.
|
363 |
Modelos de distribuição espacial de precipitações intensasDiniz, Érika Cristina [UNESP] 26 February 2003 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:25:32Z (GMT). No. of bitstreams: 0
Previous issue date: 2003-02-26Bitstream added on 2014-06-13T19:53:23Z : No. of bitstreams: 1
diniz_ec_me_rcla.pdf: 610866 bytes, checksum: 86834ae8acca4f4532e7d39107c9c8c7 (MD5) / Modelos de geração de precipitações são de extrema importância nos dias atuais, pois com o conhecimento do padrão de precipitação em certa área, pode-se planejar obras de forma a minimizar os efeitos das precipitações de grande intensidade. No presente trabalho, aplica-se o modelo de Neyman-Scott e, particularmente, o de Poisson na geração de precipitações de grande intensidade na região da Bacia do Tietê Superior, no Estado de São Paulo, Brasil. Essa região sofre anualmente com as enchentes devido às fortes precipitações e a alta densidade populacional nesta área. Para a aplicação dos modelos de distribuição espacial de precipitações Neyman-Scott e Poisson, foram considerados os dados coletados de 1980 a 1997 de uma rede pluviométrica constituída de treze pluviômetros. / Models related with precipitations generation have extremely importance nowadays because with the standard knowledge about an specific area, we can plan projects to minimize the effects caused by high intensity precipitations. At the present work, we applies Neyman-Scott s model and particularly the one from Poisson, in the precipitations generations with high intensity in the Superior Tietê Bays region, São Paulo state, Brazil. This region suffer annually with the floods due to the strong precipitations and the high human density. To use the Neyman-Scott and Poisson models related to spatial precipitations distribution, we have considered data collected during 1980 to 1997 from a pluviometric network consisted by thirteen rain gauges.
|
364 |
O ensino de probabilidade com o uso do problema do jogo dos discos / O ensino de probabilidade com o uso do problema do jogo dos discosLima, Felipe Mascagna Bittencourt 21 March 2013 (has links)
Made available in DSpace on 2016-06-02T20:02:51Z (GMT). No. of bitstreams: 1
5181.pdf: 4342664 bytes, checksum: 0c1263b3ec0e99e55077b51fca5e0e04 (MD5)
Previous issue date: 2013-03-21 / In this work, we present a didactic proposal which aim is to introduce Probability to students of Basic Education. This proposal consists in a sequence of classes that is based on the Game of Discs Problem, which goal is to determine the diameter that a disk must have so that when launched randomly on square tiles, has a certain probability of intercept their separating lines. This problem was put to students from three classes of third year of a state high school in a contextualized form and before introduction of Probability by the teacher. The idea was that the students should try to solve the problem in groups and with a minimal help from the teacher. Even with students having difficulties, it proved possible, and they solved the problem using a concrete experimentation of the game. For this, they approximated the probability of winning with a certain disc to the win percentage in the experimentation and, through graphical modeling, they achieved the desired answer. The motivation to this teaching propose was the observation by the author that the way that Probability has been traditionally teached has proven ineffective. Moreover, it can be saw that several Brazilian official documents, such as the National Curriculum Parameters (PCN) and Curricular Proposal of the State of São Paulo, as well as other researchers, suggest that concrete experimentation should be performed for a effective teaching of Probability. With the results obtained, presented in this dissertation, we conclude that our didactic proposal is efficient, bringing motivating classes and providing an environment in which students, besides learning Probability, could exercise their creative capacity. / Neste trabalho, apresentamos uma proposta didática destinada a introduzir a Probabilidade a alunos do Ensino Básico. Tal proposta consta de uma sequência de aulas que toma por base o Problema do Jogo dos Discos, no qual tem-se como objetivo determinar o diâmetro que um disco deve ter para que, quando lançado aleatoriamente sobre pisos quadrados, tenha determinada probabilidade de interceptar suas linhas de separação. Este problema foi colocado a alunos de três turmas de terceiro ano do ensino médio de uma escola estadual de maneira contextualizada e antes que o assunto Probabilidade tivesse sido abordado pelo docente. A ideia era que os estudantes tentassem resolver o problema em grupos e com o mínimo de ajuda do professor. Mesmo com os alunos apresentando dificuldades, isso se mostrou possível, tendo os mesmos resolvido o problema utilizando a experimentação concreta do jogo. Para isso, eles aproximaram a probabilidade de ganho com certo disco com o percentual de vitórias na experimentação e, através de modelagem gráfica, conseguiram a resposta desejada. Tal proposta de ensino teve como motivação a constatação do autor de que o ensino de Probabilidade feito da maneira tradicional tem se mostrado pouco eficaz. Além disso, pôde-se perceber que vários documentos oficiais, como os Parâmetros Curriculares Nacionais (PCN) e a Proposta Curricular do Estado de São Paulo, bem como outros pesquisadores da área, sugerem que a experimentação concreta seja realizada para um efetivo ensino da Probabilidade. Com os resultados obtidos e apresentados nesta dissertação, concluímos que nossa proposta didática se mostrou eficiente, tornando as aulas motivadoras e propiciando um ambiente no qual os alunos, além de aprender Probabilidade, pudessem exercitar sua capacidade criativa.
|
365 |
Modelagem de eventos raros: um estudo comparativoScacabarozi, Fernanda Nanci 16 January 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1
4139.pdf: 2492387 bytes, checksum: d478498a0d367106a7ad8dfe2a681cf3 (MD5)
Previous issue date: 2012-01-16 / Financiadora de Estudos e Projetos / In some situations, in various areas of knowledge, the response variable of interest has dichotomous distribution extremely unbalanced. In the _nancial market is the common interest in determining the probability that each customer will commit a fraudulent action, and the proportion of customers fraudsters is extremely small. In health there is interest in determining the probability that a particular person will present some epidemiological infection that a_ects only a small fraction of the population. However, there are studies that show that the usual logistic regression model, widely used in the modeling of binary data, does not produce good results when it is built using databases extremely unbalanced. In the literature, we _nd some proposals for adjusting models them that take into account this characteristic, such as KZ estimators suggested by King and Zeng (2001) for the logistic regression model applied to databases with events rare. We present this methodology and a simulation study to verify the quality of these estimators. Other proposals in the literature are limited logit model suggested by Cramer (2004) that upper limit to the probability of success and the generalized logit model suggested by Stukel (1988) which has two shape parameters and works better than the usual logit model in situations that the probability curve is not symmetrical around the point 1 2 . In this paper we present some simulations to verify the advantages of the use of these models. Palavras-chave: model logit model limited, generalized logit model, logit model with response of origin, KZ estimators, measures forecasts. / Em algumas situa_c~oes, nas mais diversas _areas do conhecimento, a vari_avel resposta de interesse possui distribui_c~ao dicot^omica extremamente desbalanceada. No mercado _nanceiro _e comum o interesse em determinar a probabilidade de que cada cliente venha a cometer uma a_c~ao fraudulenta, sendo que a propor_c~ao de clientes fraudadores _e extremamente pequena. Na _area da sa_ude existe o interesse em determinar a probabilidade de que uma determinada pessoa venha a apresentar alguma infec_c~ao epidemiol_ogica que atinge apenas uma diminuta parcela da popula_c~ao. No entanto, existem estudos que revelam que o modelo de regress~ao log__stica usual, amplamente utilizado na modelagem de dados bin_arios, n~ao produz bons resultados quando este _e constru__do utilizando bases de dados extremamente desbalanceadas. Na literatura, encontramos algumas propostas para o ajuste de modelos que levam em conta esta caracter__stica, tal como os estimadores KZ sugeridos por King e Zeng (2001) para o modelo de regress~ao log__stica aplicado em bases de dados com eventos raros. Neste trabalho apresentamos esta metodologia e um estudo de simula_c~ao para veri_car a qualidade destes estimadores. Outras propostas encontradas na literatura s~ao o modelo logito limitado sugerido por Cramer (2004) que limita superiormente a probabilidade de sucesso e o modelo logito generalizado sugerido por Stukel (1988) que apresenta dois par^ametros de forma e funciona melhor que o modelo logito usual nas situa_c~oes em que a curva de probabilidade n~ao _e sim_etrica em torno do ponto 1 2 . Neste trabalho apresentamos algumas simula_c~oes para veri_car as vantagens do usos destes modelos.
|
366 |
Distribuição espacial e plano de amostragem seqüencial de ácaros fitófagos na cultura da seringueira [Hevea brasiliensis (Wild. Ex Adr. de Juss.) Müell.Arg.] /Martins, Gustavo Luís Mamoré. January 2008 (has links)
Resumo: O objetivo deste trabalho foi estudar a distribuição espacial e desenvolver um plano de amostragem seqüencial para os ácaros Calacarus heveae Feres e Tenuipalpus heveae Baker, na cultura da seringueira. Para isso, a área experimental, com 1000 plantas do clone RRIM 600, foi dividida em 100 parcelas de dez plantas cada uma. As amostragens foram realizadas de dezembro de 2007 a junho de 2008 em intervalos de aproximadamente dez dias. Em cada data foram amostradas duas plantas por parcela, coletando-se de cada uma, uma extremidade de ramo com aproximadamente 30 cm de comprimento. No laboratório, os ácaros foram avaliados com o uso de lupa de bolso de 20X de aumento, em seis folíolos por parcela, sendo três de cada ramo. A contagem de C. heveae foi realizada em duas áreas de 1 cm2 na página superior dos folíolos. Para T. heveae a contagem foi realizada em duas áreas de 1 cm2 na página inferior dos folíolos, sendo uma sobre a nervura principal e outra sobre a nervura lateral. Para medir a distribuição espacial foram calculados os índices de dispersão: razão variância média (I), índice de Morisita ( d I ), coeficiente de Green (Cx) e expoente k da distribuição Binomial Negativa. O plano de amostragem seqüencial foi desenvolvido de acordo com o Teste Seqüencial da Razão de Verossimilhança (TSRV). Foi pré-estabelecido o valor de 0,10 para e que representam o Erro Tipo I e Erro Tipo II, respectivamente. O nível de controle adotado foi de 17% de infestação para C. heveae e 39% de infestação para T. heveae. Foi determinada a Curva Característica de Operação [CO(p)] e a Curva do Tamanho Máximo Esperado de Amostra [Ep(n)]. A partir dos resultados obtidos, verificou-se que C. heveae e T. heveae apresentam distribuição agregada na cultura da seringueira, se ajustando ao modelo de distribuição Binomial Negativa. No plano de amostragem seqüencial de C. heveae foram... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The objective of this work was to study the spatial distribution and developing a sequential sampling plan for the mites Calacarus heveae Feres and Tenuipalpus heveae Baker on rubber tree crop. For this reason, the experimental area, with 1000 plants of RRIM 600 clone, was divided into 100 plots of ten plants each. Samples were taken from December 2007 to June of 2008 at intervals of about ten days. On each date were sampled two plants per plot, capturing of each, one end of class with about 30 cm in length. In the laboratory, the mites were evaluated using a magnifying glass, pocket of 20X to increase in six leaves per plot, three of each branch. The counting of C. heveae was conducted in two areas of 1 cm2 in the upper leaflets. For T. heveae the counting was done in two areas of 1 cm2 in the lower leaflets, one on the main vein and one vein on the side. To measure the spatial distribution were calculated rates of dispersal: variance/mean relationship (I), index of Morisita (I ), coefficient of Green (Cx) and k exponent of negative binomial distribution. The sequential sampling plan was developed in accordance with the Sequential Test of the Likelihood Ratio (TSRV). First was pre-established value of 0.10 for and representing the Error Type I and Type II error, respectively. The level of control adopted was 17% of infestation for C. heveae and 39% of infestation for T. heveae. It was determined the Operation Characteristic Curves [CO(p)] and Curve of the High Expected Sample Size [Ep(n)]. These results and as the indices of distribution used was found that C. heveae and T. heveae present distribution of rubber tree crop in the aggregate, is adjusting to the Negative Binomial distribution model. For the sequential sampling plan of C. heveae were obtained two lines: an upper (S1 = 17,0106 + 2,0949 N), from which control is recommended, and another lower (S0 = -17,0106 + 2,0949 N), until... (Complete abstract click electronic access below) / Orientador: Marineide Rosa Vieira / Coorientador: Jose Carlos Barbosa / Banca: Geraldo Papa / Banca: Carlos Amadeu Leite de Oliveira / Mestre
|
367 |
[en] EVALUATION OF UNCERTAINTIES AND ITS INFLUENCE IN THE ANALYSIS OF WELLBORE STABILITY / [es] CUANTIFICACIÓN Y TRATAMIENTO DE ERRORES EN EL ANÁLISIS DE ESTABILIDAD DE POZOS DE PETRÓLEO / [pt] QUANTIFICAÇÃO E TRATAMENTO DAS INCERTEZAS EM ANÁLISES DE ESTABILIDADE DE POÇOS DE PETRÓLEOBRUNO BROESIGKE HOLZBERG 04 October 2001 (has links)
[pt] O estudo sobre estabilidade de poços tem como uma de suas
principais aplicações a determinação da faixa segura de
densidades do fluido de perfuração. A análise de
estabilidade de um poço, que determina essa faixa segura,
envolve uma série de parâmetros que geralmente apresentam
incertezas associadas aos seus valores. Em métodos
convencionais, essas incertezas não são consideradas. O
objetivo deste trabalho é desenvolver metodologias de
análise de estabilidade de poços que considerem as
incertezas associadas aos parâmetros. Métodos para
quantificação de incertezas associadas aos parâmetros são
apresentados para o caso de um poço já perfurado e para o
caso de um novo poço em uma região em desenvolvimento. Dois
métodos de análise de sensitividade também são apresentados
e aplicados ao problema de estabilidade de poços. Para
avaliação do efeito que as incertezas associadas aos
parâmetros geram no sistema de estabilidade, dois métodos
probabilísticos (simulação de Monte Carlo e método FOSM)
foram aplicados ao problema, e depois intercomparados.
Através do método da simulação de Monte Carlo, desenvolveu-
se um simulador computacional para análise probabilística
de estabilidade de poços, que permite a consideração das
incertezas associadas aos parâmetros. Os métodos
probabilísticos de análise fornecem como resposta as
probabilidades de ruptura associadas às diferentes pressões
internas do poço. Como essas pressões são dependentes da
densidade do fluido de perfuração, a avaliação do risco
associado à essas pressões constitui um novo critério para
a determinação da densidade do fluido de perfuração. / [en] The study on wellbore stability has as one of its main
application the determination of the safe range of the
drilling-fluid density. The wellbore stability analysis is
controlled by a number of parameters that generally present
uncertainties associated to their values. In conventional
methods, these uncertainties are not considered. The
purpose of this work is to develop methodologies of
analysis of wellbore stability that consider the
uncertainties associated to the controlling parameters.
Methods for quantifying the uncertainties associated to the
parameters are presented for the case of an open well and
for the case of new well located on a development region.
Two methods of sensitivity analysis are also presented and
applied to the well stability problem. To evaluate the
effect that the uncertainties associated to the parameters
create on the stability analysis, two probabilistic methods
were applied to the problem, and compared to each other.
Based upon Monte Carlo method, a computational simulator
was developed in order to carry out probabilistic analysis
of wellbore stability. The simulator takes into account the
uncertainties associated to the parameters. The
probabilistic methods of analysis, presented in this
dissertation, provide the probability of failure associated
to the different internal pressure of the well. As these
pressures are dependent upon the density of the drilling -
fluid, the evaluation of the risk associated to these
pressures constitutes a new criterion to establish the
density of the drilling -fluid. / [es] EL estudio sobre estabilidad de pozos tiene como una de sus
principales aplicaciones la determinación de la banda de
seguridad de las densidades del fluido de perforación. El
análisis de estabilidad de un pozo, que determina esa banda
segura, incluye una série de parámetros que generalmente
presentan errores asociados a sus valores. En métodos
convencionales, esos errores no son consideradas. EL
objetivo de este trabajo es desarrollar metodologías de
análisis de estabilidad de pozos que consideren los errores
asociados a los parámetros. Métodos para cuantificación de
errores asociadas a los parámetros son presentados para el
caso de un pozo perforado y para el caso de un nuevo pozo
en una región en desarrollo. Se presentan también dos
métodos de análisis de sensitividad y se aplican a
problemas de estabilidad de pozos. Para la evaluación de lo
que los errores asociados a los parámetros generan en el
sistema de estabilidad, se aplican dos métodos
probabilísticos (simulación de Monte Carlo y método FOSM).
A través del método de la simulación de Monte Carlo, se
desarrolla un simulador computacional para el análisis
probabilístico de estabilidad de pozos, que permite la
consideración de los errores asociados a los parámetros.
Los métodos probabilísticos de análisis dan como respuesta
las probabilidades de ruptura asociadas a las diferentes
presiones internas del pozo. Como esas presiones son
dependientes de la densidad del fluido de perforación, la
evaluación del riesgo asociado a esas presiones constituye
un nuevo criterio para la determinación de la densidad del
fluido de perforación.
|
368 |
[en] SOCCER CHAMPIONSHIP PROBABILITS ESTIMATION / [pt] ESTIMAÇÃO DE PROBABILIDADES EM CAMPEONATOS DE FUTEBOLEDUARDO LIMA CAMPOS 26 October 2001 (has links)
[pt] Neste trabalho, apresentamos uma metodologia para obter
probabilidades de classificação e rebaixamento de equipes
em campeonatos de futebol. A metodologia consiste
basicamente em quatro etapas. Na primeira etapa, ajustamos
modelos de séries temporais para dados de contagem a séries
de gols a favor e sofridos pelas equipes em partidas
sucessivas do campeonato, utilizando variáveis explicativas
para considerar o efeito do mando de campo, da participação
de determinados jogadores e de mudanças de técnico.
Alguns problemas referentes à construção de intervalos de
confiança e testes de hipóteses para os hiperparâmetros dos
modelos foram solucionados via bootstrap.
Na segunda etapa, obtivemos as distribuições de
probabilidade associadas aos resultados das partidas
futuras do campeonato, utilizando o Princípio da Máxima
Entropia para combinar as distribuições preditivas dos
modelos ajustados. Na terceira etapa, utilizamos as
distribuições dos resultados das partidas futuras para
simular cenários para o campeonato e, na quarta e última
etapa, estimamos as probabilidades de classificação e
rebaixamento das equipes, pela freqüência relativa da
ocorrência destes eventos em um grande número de cenários
gerados. A metodologia foi aplicada no Campeonato
Brasileiro/1999 e na Copa João Havelange/2000. / [en] In this thesis, we develop a methodology to obtain the
probabilities of qualifying and relegating of teams, in
soccer championships. The methodology consists of four steps.
In the first step, we fit time series models to the series
of number of goals scored in soccer matches. We account for
the effects of playing at home, soccer players and changes
of coaches, by introducing explanatory variables.
Confidence intervals and hipothesis tests are obtained by
bootstrap. In the second step, we get probability
distributions of the future matches results, by combining
preditive distributions of the fitted models via the
Maximum Entropy Principle. In the third step, we use the
distributions of the matches results to generate
simulation sceneries for the champhionship. In the forth
and last step, we finally estimate the probabilities of
qualifying and relegating of the teams, through the
relative frequencies of these events, in a great number of
sceneries generated. The empirical work was carried out
using data from Brazilian Champhionship/1999 and João
Havelange Cup/2000.
|
369 |
Multivariate Copula-based SUR Tobit Models : a modified inference function for margins and interval estimationSilva, Paulo Henrique Ferreira da 30 September 2015 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-09-14T18:49:08Z
No. of bitstreams: 1
TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:17Z (GMT) No. of bitstreams: 1
TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:23Z (GMT) No. of bitstreams: 1
TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Made available in DSpace on 2016-09-16T19:48:28Z (GMT). No. of bitstreams: 1
TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5)
Previous issue date: 2015-09-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In this thesis, we extend the analysis of multivariate Seemingly Unrelated Regression (SUR) Tobit models by modeling their nonlinear dependence structures through copulas. The capability in coupling together the diferent - and possibly non-normal - marginal distributions allows the exible modeling for the SUR Tobit models. In addition, the ability to capture the tail dependence of the SUR Tobit models where some data are censored (e.g., in econometric analysis, clinical essays, wide range of political and social phenomena, among others, data are commonly left-censored at zero point, or right-censored at a point d > 0) is another useful feature of copulas. Our study proposes a modified version of the (classical) Inference Function for Margins (IFM) method by Joe & Xu (1996), which we refer to as MIFM method, to obtain the (point) estimates of the marginal and copula association parameters. More specifically, we use a (frequentist) data augmentation technique at the second stage of the IFM method (the first stage of the MIFM method is equivalent to the first stage of the IFM method) to generate the censored observations and then estimate the copula parameter. This procedure (data augmentation and copula parameter estimation) is repeated until convergence. Such modification at the second stage of the usual method is justified in order to obtain continuous marginal distributions, which ensures the uniqueness of the resulting copula, as stated by Sklar (1959)'s theorem; and also to provide an unbiased estimate of the copula association parameter (the IFM method provides a biased estimate of the copula parameter in the presence of censored observations in the margins). Since the usual asymptotic approach, that is the computation of the asymptotic covariance matrix of the parameter estimates, is troublesome in this case, we also propose the use of resampling procedures (bootstrap methods, like standard normal and percentile by Efron & Tibshirani (1993), and basic bootstrap by Davison & Hinkley (1997)) to obtain con_dence intervals for the copula-based SUR Tobit model parameters. / Nesta tese de doutorado, consideramos os chamados modelos SUR (da expressão Seemingly Unrelated Regression) Tobit multivariados e estendemos a análise de tais modelos ao empregar funções de cópula para modelar estruturas com dependência não linear. As cópulas, dentre outras características, possuem a importante habilidade (vantagem) de capturar/modelar a dependência na(s) cauda(s) do modelo SUR Tobit em que alguns dados são censurados (por exemplo, em análise econométrica, ensaios clínicos e em ampla gama de fenômenos políticos e sociais, dentre outros, os dados são geralmente censurados à esquerda no ponto zero, ou à direita em um ponto d > 0 qualquer). Neste trabalho, propomos uma versão modificada do método clássico da Inferência para as Marginais (IFM, da expressão Inference Function for Margins), originalmente proposto por Joe & Xu (1996), a qual chamamos de MIFM, para estimação (pontual) dos parâmetros do modelo SUR Tobit multivariado baseado em cópula. Mais especificamente, empregamos uma técnica (frequentista) de ampliação de dados no segundo estágio do método IFM (o primeiro estágio do método MIFM é igual ao primeiro estágio do método IFM) para gerar as observações censuradas e, então, estimamos o parâmetro de dependência da cópula. Repetimos tal procedimento (ampliação de dados e estimação do parâmetro da cópula) até obter convergência. As razões para esta modificação no segundo estágio do método usual, são as seguintes: primeiro, construir/obter distribuições marginais contínuas, atendendo, então, ao teorema de unicidade da cópula resultante de Sklar (Sklar, 1959); e segundo, fornecer uma estimativa não viesada para o parâmetro da cópula (uma vez que o método IFM produz estimativas viesadas do parâmetro da cópula na presença de observações censuradas nas marginais). Tendo em vista a dificuldade adicional em calcular/obter a matriz de covariâncias assintótica das estimativas dos parâmetros, também propomos o uso de procedimentos de reamostragem (métodos bootstrap, tais como normal padrão e percentil, propostos por Efron & Tibshirani (1993), e básico, proposto por Davison & Hinkley (1997)) para a construção de intervalos de confiança para os parâmetros do modelo SUR Tobit baseado em cópula.
|
370 |
Avaliação das informações oficiais sobre mortalidade por causas externas em menores de 18 anos : Duque de Caxias, RJ : a confiabilidade da causa básica nas declarações de óbito por acidentes e violênciasEneida Márcia de Souza Simões 02 October 2000 (has links)
Este estudo visou avaliar a qualidade das informações oficiais relativas a mortalidade por causas externas em menores de 18 anos, residentes no Município de Duque de Caxias, cujos óbitos tivessem ocorrido em 1995 e 1996. Foram comparadas as codificações da causa básica feitas a partir da Declaração de Óbito emitida pelo Instituto Médico Legal com a Declaração de Óbito complementada pela Secretaria Municipal de Saúde da causa básica obtida pela pesquisa que utilizou como fonte de informações os laudos necroscópicos e os Registros de Ocorrência Policial. A dissertação está estruturada em três partes. A primeira parte são apresentados os dados de mortalidade por causas externas no Brasil. A descrição detalhada do material e método de trabalho utilizados, contemplando a coleta de informações na Secretaria Municipal de Saúde e no Instituto Médico Legal, controle da qualidade do processo de coleta de dados e a análise dos mesmos. Os resultados e a conclusão indicam a fraca concordância entre o Instituto Médico Legal tanto em relação a Secretaria Municipal de Saúde, quanto a pesquisa, nos dois anos analisados. Por outro lado a concordância substancial (1995) ou moderada (1996) entre a Secretaria Municipal de Saúde e a pesquisa apontam para uma confiabilidade das informações oficiais sobre mortalidade por causas externas. Na última parte, procura-se mapear o perfil das vítimas e os tipos de acidentes e violências que ocasionaram suas mortes, além de apresentar algumas propostas, no âmbito do setor saúde, para a prevenção desses eventos assim como o atendimento as vítimas.
|
Page generated in 0.0711 seconds