• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 7
  • 2
  • Tagged with
  • 84
  • 40
  • 36
  • 23
  • 19
  • 18
  • 17
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Propriedades lógicas de classes de testes de hipóteses / Logical properties of classes of hypotheses tests

Gustavo Miranda da Silva 03 November 2014 (has links)
Ao realizar testes de hipóteses simultâneos espera-se que a decisões obtidas neles sejam logicamente consistentes entre si. Neste trabalho, verifica-se sob quais condições testes de Bayes simultâneos atendem às condições lógicas isoladamente ou em conjunto. Demonstra-se que as restrições para que os testes simultâneos atendam essas condições isoladamente são bastante intuitivas. No entanto, ao tentar obedecer as condições conjuntamente, perde-se otimalidade. Além disso, avalia-se a relação entre esses testes de Bayes simultâneos e os testes gerados por estimadores, isto é, mostra-se que, sob algumas condições, tomar uma decisão baseado em um estimador de Bayes é equivalente a tomar uma decisão baseada em um teste de Bayes. Por fim, mostra-se que, se tomamos uma decisão baseada em Estimadores de Máxima Verossimilhança, então essa decisão deve ser igual à tomada por um teste de Bayes e concluímos que essas decisões são admissíveis e obedecem ao Princípio da Verossimilhança. / When performing simultaneous hypotheses testing is expected that the decisions obtained therein are logically consistent with each other. In this work, we find restrictions under which simultaneous Bayes tests meet logical conditions separately or jointly. It is shown that the conditions for the simultaneous tests meet these conditions alone are quite intuitive. However, when trying to obey the conditions jointly, we lose optimality. Furthermore, we evaluate the relationship between these tests and simultaneous Bayes tests generated by estimators, ie, we show that, under some conditions, to choose an estimator based on Bayes decision is equivalent to choosing a decision based on a Bayes test. Finally, we show that if we take a decision based on Maximum Likelihood Estimators, then that decision should be equal to taking a Bayes test and concluded that these decisions are admissible and obey the Likelihood Principle.
32

Um estudo comparativo entre abordagens Bayesianas à testes de hipóteses / A comparative study of Bayesian approaches to hypothesis testing

Brian Alvarez Ribeiro de Melo 04 March 2013 (has links)
Neste trabalho, consideramos uma população finita composta por N elementos, sendo que para cada unidade está associado um número (ou vetor) de tal forma que temos para a população o vetor de valores X = (X1, ... ,XN), onde Xi denota a característica de interesse do i-ésimo indivíduo da população, que suporemos desconhecida. Aqui assumimos que a distribuição do vetor X é permutável e que existe disponível uma amostra composta por n < N elementos. Os objetivos são a construção de testes de hipóteses para os parâmetros operacionais, através das distribuições a posteriori obtidas sob a abordagem preditivista para populações finitas e a comparação com os resultados obtidos a partir dos modelos Bayesianos de superpopulação. Nas análises consideramos os modelos Bernoulli, Poisson, Uniforme Discreto e Multinomial. A partir dos resultados obtidos, conseguimos ilustrar situações nas quais as abordagens produzem resultados diferentes, como prioris influenciam os resultados e quando o modelo de populações finitas apresenta melhores resultados que o modelo de superpopulação. / We consider a finite population consisting of N units and to each unit there is a number (or vector) associated such that we have for the population the vector of values X = (X1, ..., XN), where Xi denotes the characteristic of interest of the i-th individual in the population, which we will suppose unknown. Here we assume that the distribution of the vector X is exchangeable and that there is available a sample of size n < N from this population. The goals are to derive tests of hipotheses for the operational parameters through the corresponding posterior distributions obtained under the predictivistic approach for finite populations and to compare them with the results obtained from the usual Bayesian procedures of superpopulation models. In the analysis, the following models are considered: Bernoulli, Poisson, Discrete Uniform and Multinomial. From the results, we can identify situations in which the approaches yield dierent results, how priors influence the results of hipothesis testing and when the finite population model performs better than the superpopulation one.
33

Teste de Hipóteses Restritas em Modelos de Regressão Exponencial Potência Multivariado

da Silva Leão, Jeremias 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T18:02:54Z (GMT). No. of bitstreams: 2 arquivo615_1.pdf: 1356640 bytes, checksum: e0945a4218c06bf3faa81c68f4dcb24d (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Neste trabalho, apresentamos um estudo com modelos de regressão supondo erros exponencial potência multivariada (MPE), distribuição proposta por Gómez, Gómez- Villegas & Marín (1998). Esta distribuição pertence à classe das distribuições elípticas e vem sendo bastante usada por vários pesquisadores em diversos contextos, como por exemplo, em modelos com medidas repetidas, modelos bayesianos hierárquicos. Mostramos os processos iterativos de estimação por máxima verossimilhança dos parâmetros sob restrições de igualdades e desigualdades lineares. Discutimos o problema de testes de hipóteses da forma H0 : C = 0 contra H2 : C 0, em modelos MPE. Apresentamos a avaliação do poder dos testes de hipóteses razão de verossimilhanças (RV), Wald (W) e escore (SR) para dados agrupados e sob presença de regressores, em amostras pequenas e moderadas via simulação de Monte Carlo. Comparamos as distribuições nula teórica e empírica dos testes unilaterais. Mostramos dois exemplos práticos para verificar o comportamento dos testes sob o modelo MPE. O primeiro conjunto de dados refere-se a um estudo comparativo entre grupos de diabéticos apresentado em Crowder & Hand (1990). O segundo conjunto de dados analisado é descrito por Reicziguel (1999) no estudo sobre o efeito de cholagogues nas mudanças de volumes na vesícula biliar em três grupos de cães
34

Seleção de modelos através de um teste de hipótese genuinamente Bayesiano: misturas de normais multivariadas e hipóteses separadas / Model selection by a genuinely Bayesian significance test: Multivariate normal mixtures and separated hypotheses

Marcelo de Souza Lauretto 03 October 2007 (has links)
Nesta tese propomos o Full Bayesian Significance Test (FBST), apresentado por Pereira e Stern em 1999, para análise de modelos de misturas de normais multivariadas. Estendemos o conceito de modelos de misturas para explorar outro problema clássico em Estatística, o problema de modelos separados. Nas duas propostas, realizamos experimentos numéricos inspirados em problemas biológicos importantes: o problema de classificação não supervisionada de genes baseada em seus níveis de expressão, e o problema da discriminação entre os modelos Weibull e Gompertz - distribuições clássicas em análise de sobrevivência. / In this thesis we propose the Full Bayesian Significance Test (FBST) as a tool for multivariate normal mixture models. We extend the fundamental mixture concepts to another important problem in Statistics, the problem of separate models. In both methods, we perform numerical experiments based on important biological problems: the unsupervised classification of genes based on their expression profiles, and the problem of deciding between the Weibull and Gompertz models - two classical distributions widely used in survival analysis.
35

Métodos alternativos para realização de testes de hipóteses em delineamentos experimentais. / Alternative methods for testing hypotheses in experimental designs.

Nesi, Cristiano Nunes 17 July 2002 (has links)
Na estatística experimental, especificamente quando se faz análise de variância, os testes de hipóteses têm sido amplamente utilizados para se concluir a respeito das fontes de variação consideradas nos modelos lineares. Para tanto, é comum a utilização de sistemas estatísticos que fornecem análises de variância e a estatística F, entre outras, para a tomada de decisões. Entretanto, o teste F numa análise de variância para tratamentos com mais de um grau de liberdade proporciona informações gerais, relacionadas com o comportamento médio dos tratamentos. Por essa razão, deve-se planejar comparações objetivas, fazendo-se desdobramentos dos graus de liberdade de tratamentos para obter informações mais específicas. Nesse sentido, uma técnica usada para esses desdobramentos baseia-se na utilização de contrastes, sendo necessário que cada componente seja explicado por um contraste, com todos os contrastes sendo ortogonais entre si, para que as comparações sejam independentes. Entretanto, essa técnica torna-se complexa à medida que o número de tratamentos aumenta. Frente a isso, utilizando-se os dados provenientes de um experimento de competição entre dois grupos de variedades de cana-de-açúcar, inteiramente ao acaso com seis tratamentos e cinco repetições, e também nos dados obtidos de um experimento fictício de competição entre híbridos de milho no delineamento blocos casualizados, propôs-se uma técnica, empregando variáveis auxiliares, para facilitar o desdobramento ortogonal dos graus de liberdade de tratamentos, procurando-se evidenciar que essa técnica facilita o desdobramento ortogonal dos graus de liberdade de tratamentos e tem resultados equivalentes aos obtidos utilizando-se a função CONTRAST do PROC GLM do SAS. Outro problema refere-se à análise de experimentos fatoriais com desbalanceamento das amostras, tendo em vista que as técnicas de estimação de parcelas perdidas não resolvem satisfatoriamente o problema, principalmente se existem muitas parcelas perdidas. Quando os dados são desbalanceados, há necessidade de se conhecer que hipóteses estão sendo testadas e se estas são de interesse do pesquisador, devido à complexidade dessas hipóteses, principalmente em presença de caselas vazias. Além disso, muito têm sido escrito sobre os diferentes resultados da análise de variância apresentados por sistemas estatísticos para dados desbalanceados com caselas vazias, o que tem gerado confusão entre os pesquisadores. Com a finalidade de propor um método alternativo para a obtenção de hipóteses de interesse, utilizaram-se os resultados de um experimento fatorial 2x3, inteiramente ao acaso, com quatro repetições, para testar os efeitos de três reguladores de crescimento (hormônios), sobre a propagação "in vitro" de dois porta-enxertos (cultivares) de macieira. Assim, diante do fato que testar uma hipótese é equivalente a impor uma restrição estimável aos parâmetros do modelo, utilizaram-se restrições paramétricas estimáveis como um critério alternativo para realizar testes de hipóteses de interesse em modelos lineares com dados desbalanceados. Os resultados mostram que esse método permite que o pesquisador teste diretamente hipóteses de seu interesse, com resultados equivalentes aos encontrados com a função CONTRAST do PROC GLM do SAS. / For experimental designs, it is usually necessary to do tests of hypotheses to conclude about effects considered in the linear models. In these cases, it is common to use statistical softwares that supply the analyses of variance and F statistics, among others, for taking decisions. However, the test F in an analysis of variance for sources of variation with more than a degree of freedom provides general information, about significant differences of levels of the factor. Therefore, it should be planned objective comparisons, making orthogonal decompositions of the degrees of the effects of interest to get more specific information. One technique used frequently based on the orthogonal contrasts, so that the comparisons are independent. However, this technique becomes complex as the number of levels of the factor increases. To study alternative methods to do these comparisons, we use data from a yield trail experiment considering two groups of varieties of sugarcane, in a complete randomized design with 6 treatments and 5 repetitions. Also, we use data from a fictitious experiment comparing hybrids of maize in the randomized complete block design. The technique of analysis using dummy variables to facilitate the orthogonal decomposition of degrees of freedom of treatments was proposed. This technique facilitates the orthogonal decomposition and has the same results of those obtained the function CONTRAST of PROC GLM of SAS. Another situation considered involves experiments with unbalanced data. In this case, it is possible to suppose that there is the necessity of knowing what hypotheses are being tested and if they are useful. Much has been written on the different results of analysis of variance presented by statistical software for unbalanced data. This can create confusion to the researcher. To illustrate, we used the results of an 2x3 factorial experiment with 4 replicates, to test the effect of 3 hormones, on the propagation of 2 in vitro cultivars of apple trees. Thus, considering that to test a hypotheses is equivalent to impose an estimable restriction to the parameters of the model, we use these restrictions as an alternative criteria to directly carry out tests of hypotheses in linear models with unbalanced data. The results showed that this procedure is equivalent of that used by the function CONTRAST of PROC GLM/SAS.
36

Model selection for learning boolean hypothesis / Seleção de modelos para o aprendizado de hipóteses booleanas

Castro, Joel Edu Sanchez 10 August 2018 (has links)
The state of the art in machine learning of Boolean functions is to learn a hypothesis h, which is similar to a target hypothesis f, using a training sample of size N and a family of a priori models in a given hypothesis set H, such that h must belong to some model in this family. An important characteristic in learning is that h should also predict outcome values of f for previously unseen data, so the learning algorithm should minimize the generalization error which is the discrepancy measure between outcome values of f and h. The method proposed in this thesis learns family of models compatible with training samples of size N. Taking into account that generalizations are performed through equivalence classes in the Boolean function domain, the search space for finding the correct model is the projection of H in all possible partitions of the domain. This projection can be seen as a model lattice which is anti-isomorphic to the partition lattice and also has the property that for every chain in the lattice there exists a relation order given by the VC dimension of the models. Hence, we propose a model selector that uses the model lattice for selecting the best model with VC dimension compatible to a training sample of size N, which is closely related to the classical sample complexity theorem. Moreover, this model selector generalizes a set of learning methods in the literature (i.e, it unifies methods such as: the feature selection problem, multiresolution representation and decision tree representation) using models generated from a subset of partitions of the partition space. Furthermore, considering as measure associated to the models the estimated error of the learned hypothesis, the chains in the lattice present the so-called U-curve phenomenon. Therefore, we can use U-curve search algorithms in the model lattice to select the best models and, consequently, the corresponding VC dimension. However, this new generation of learning algorithms requires an increment of computational power. In order to face this problem, we introduce a stochastic U-curve algorithm to work on bigger lattices. Stochastic search algorithms do not guarantee finding optimal solutions, but maximize the mean quality of the solution for a given amount of computational power. The contribution of this thesis advances both the state of the art in machine learning theory and in practical problem solutions in learning. / O estado da arte em aprendizado de funções Booleanas é aprender uma hipótese h, que é similar a uma hipótese objetivo f, a partir de uma amostra de tamanho N e uma família de modelos a priori em um dado conjunto de hipóteses H, tal que h deve pertencer a algum modelo nesta família. Uma característica importante no aprendizado é que h deve também predizer resultados de f para elementos que não aparecem no conjunto de treinamento, então o algoritmo de aprendizado deve minimizar o erro de generalização, o qual mede a discrepância entre os resultados de f e h. O método proposto nesta tese aprende uma família de modelos compatíveis com um conjunto de treinamento de tamanho N. Tomando em consideração que as generalizações são realizadas através de classes de equivalência no domínio da função Booleana, o espaço de busca para encontrar um modelo apropriado é a projeção de H em todas as possíveis partições do domínio. Esta projeção pode ser vista como um reticulado de modelos que é anti-isomórfica ao reticulado de partições e também tem a propriedade que para cada cadeia no reticulado existe uma relação de ordem dada pela dimensão VC dos modelos. Portanto, propomos um seletor de modelos que usa o reticulado de modelos para selecionar o melhor modelo com dimensão VC compatível ao conjunto de treinamento de tamanho N, o qual é intimamente relacionado ao teorema clássico de complexidade da amostra. Além disso, este seletor de modelos generaliza um conjunto de métodos de aprendizado na literatura (i.e, ele unifica métodos tais como: o problema de seleção de características, a representação multiresolução e a representação por árvores de decisão) usando modelos gerados por um subconjunto de partições do espaço de partições. Ademais, considerando como medida associada aos modelos o erro de estimação da hipótese aprendida, as cadeias no reticulado apresentam o fenômeno chamado U-curve. Portanto, podemos usar algoritmos de busca $U$-curve no reticulado de modelos para selecionar os melhores modelos, consequentemente, a correspondente dimensão VC. No entanto, esta nova geração de algoritmos de aprendizado requerem um incremento de poder computacional. Para enfrentar este problema, introduzimos o algoritmo Stochastic $U$-curve para trabalhar em reticulados maiores. Algoritmos de busca estocásticos não garantem encontrar soluções ótimas, mas maximizam a qualidade média das soluções para uma determinada quantidade de poder computacional. A contribuição desta tese avança ambos o estado da arte na teoria de aprendizado de máquina e soluções a problemas práticos em aprendizado.
37

Análise Bayesiana de modelos de mistura finita com dados censurados / Bayesian analysis of finite mixture models with censored data

Melo, Brian Alvarez Ribeiro de 21 February 2017 (has links)
Misturas finitas são modelos paramétricos altamente flexíveis, capazes de descrever diferentes características dos dados em vários contextos, especialmente na análise de dados heterogêneos (Marin, 2005). Geralmente, nos modelos de mistura finita, todas as componentes pertencem à mesma família paramétrica e são diferenciadas apenas pelo vetor de parâmetros associado a essas componentes. Neste trabalho, propomos um novo modelo de mistura finita, capaz de acomodar observações censuradas, no qual as componentes são as densidades das distribuições Gama, Lognormal e Weibull (mistura GLW). Essas densidades são reparametrizadas, sendo reescritas em função da média e da variância, uma vez que estas quantidades são mais difundidas em diversas áreas de estudo. Assim, construímos o modelo GLW e desenvolvemos a análise de tal modelo sob a perspectiva bayesiana de inferência. Essa análise inclui a estimação, através de métodos de simulação, dos parâmetros de interesse em cenários com censura e com fração de cura, a construção de testes de hipóteses para avaliar efeitos de covariáveis e pesos da mistura, o cálculo de medidas para comparação de diferentes modelos e estimação da distribuição preditiva de novas observações. Através de um estudo de simulação, avaliamos a capacidade da mistura GLW em recuperar a distribuição original dos tempos de falha utilizando testes de hipóteses e estimativas do modelo. Os modelos desenvolvidos também foram aplicados no estudo do tempo de seguimento de pacientes com insuficiência cardíaca do Instituto do Coração da Faculdade de Medicina da Universidade de São Paulo. Nesta aplicação, os resultados mostram uma melhor adequação dos modelos de mistura em relação à utilização de apenas uma distribuição na modelagem dos tempos de seguimentos. Por fim, desenvolvemos um pacote para o ajuste dos modelos apresentados no software R. / Finite mixtures are highly flexible parametric models capable of describing different data features and are widely considered in many contexts, especially in the analysis of heterogeneous data (Marin, 2005). Generally, in finite mixture models, all the components belong to the same parametric family and are only distinguished by the associated parameter vector. In this thesis, we propose a new finite mixture model, capable of handling censored observations, in which the components are the densities from the Gama, Lognormal and Weibull distributions (the GLW finite mixture). These densities are rewritten in such a way that the mean and the variance are the parameters, since the interpretation of such quantities is widespread in various areas of study. In short, we constructed the GLW model and developed its analysis under the bayesian perspective of inference considering scenarios with censorship and cure rate. This analysis includes the parameter estimation, wich is made through simulation methods, construction of hypothesis testing to evaluate covariate effects and to assess the values of the mixture weights, computatution of model adequability measures, which are used to compare different models and estimation of the predictive distribution for new observations. In a simulation study, we evaluated the feasibility of the GLW mixture to recover the original distribution of failure times using hypothesis testing and some model estimated quantities as criteria for selecting the correct distribution. The models developed were applied in the study of the follow-up time of patients with heart failure from the Heart Institute of the University of Sao Paulo Medical School. In this application, results show a better fit of mixture models, in relation to the use of only one distribution in the modeling of the failure times. Finally, we developed a package for the adjustment of the presented models in software R.
38

Responsabilidade objetiva por dano processual / Objective liability for damage proceeding

Fagundes, Cristiane Druve Tavares 02 March 2012 (has links)
Made available in DSpace on 2016-04-26T20:20:45Z (GMT). No. of bitstreams: 1 Cristiane Druve Tavares Fagundes.pdf: 1690712 bytes, checksum: 203f042a045a3a9175dd43c423463496 (MD5) Previous issue date: 2012-03-02 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The purpose of this present study is the analysis of objective hypotheses of the civil liability proceeding existing in the Code of Civil Procedure. The addressed topic is one of the most current and relevant ones, and also the least versed by Brazil s doctrine, which justifies the necessity of further clarification on the issue. The approach of this topic begins by the relevant aspects of liability and its general bias. Civil liability is a subject that concerns all branches of law, since as a rule, by generating damage to another person in the performance of any activity one will be faced with the obligation of compensation. Immediately thereafter, civil liability is analyzed when the damage is caused by procedural activity. The process, in this context, is formed solely on the means by which the loss is carried to another. Only after the referred to assumptions are set, then the hypotheses of objective liability in the Code of Civil Procedure in Brazil are analyzed. For the accomplishment of this study, the analysis of patriotic authors came together with foreigners , in a way to seek the most upgraded information on this matter. As it couldn t be otherwise, defended views have always been sought to corroborate with the jurisprudence in Brazilian courts, therefore showing relevance of the versed topic. Therefore the aim of this study is a systematization of the concerning matter to the objective liability proceeding / O presente estudo tem por finalidade a análise das hipóteses objetivas de responsabilidade civil processual existentes no Código de Processo Civil. O tema abordado é dos mais atuais e relevantes, sendo, ainda, dos menos versados pela doutrina pátria, o que justifica a necessidade de maior aprofundamento na questão. A abordagem da matéria tem início pelos aspectos mais relevantes da responsabilidade civil, em seu viés genérico. A responsabilidade civil trata-se de tema que interessa a todos os ramos do direito, posto que, em regra, ao gerar prejuízo para outrem, no desempenho de qualquer atividade, estar-se-á diante da obrigação indenizatória. Ato contínuo, passa-se à análise do instituto quando o dano for causado por atividade processual. O processo, nesse contexto, configura-se unicamente no meio pelo qual o prejuízo a outrem é concretizado. Somente após estarem fixadas referidas premissas, são analisadas as hipóteses de responsabilidade objetiva constantes do Código de Processo Civil brasileiro. Para a realização deste estudo, aliou-se a análise de autores pátrios com estrangeiros, de forma a buscar o que de mais atualizado existe sobre a matéria em questão. Como não poderia ser, sempre se buscou corroborar as posições defendidas com jurisprudência dos tribunais brasileiros, demonstrando, pois, a atualidade do tema versado. É objetivo do presente estudo, portanto, uma sistematização da matéria concernente à responsabilidade processual objetiva
39

Análise Bayesiana de modelos de mistura finita com dados censurados / Bayesian analysis of finite mixture models with censored data

Brian Alvarez Ribeiro de Melo 21 February 2017 (has links)
Misturas finitas são modelos paramétricos altamente flexíveis, capazes de descrever diferentes características dos dados em vários contextos, especialmente na análise de dados heterogêneos (Marin, 2005). Geralmente, nos modelos de mistura finita, todas as componentes pertencem à mesma família paramétrica e são diferenciadas apenas pelo vetor de parâmetros associado a essas componentes. Neste trabalho, propomos um novo modelo de mistura finita, capaz de acomodar observações censuradas, no qual as componentes são as densidades das distribuições Gama, Lognormal e Weibull (mistura GLW). Essas densidades são reparametrizadas, sendo reescritas em função da média e da variância, uma vez que estas quantidades são mais difundidas em diversas áreas de estudo. Assim, construímos o modelo GLW e desenvolvemos a análise de tal modelo sob a perspectiva bayesiana de inferência. Essa análise inclui a estimação, através de métodos de simulação, dos parâmetros de interesse em cenários com censura e com fração de cura, a construção de testes de hipóteses para avaliar efeitos de covariáveis e pesos da mistura, o cálculo de medidas para comparação de diferentes modelos e estimação da distribuição preditiva de novas observações. Através de um estudo de simulação, avaliamos a capacidade da mistura GLW em recuperar a distribuição original dos tempos de falha utilizando testes de hipóteses e estimativas do modelo. Os modelos desenvolvidos também foram aplicados no estudo do tempo de seguimento de pacientes com insuficiência cardíaca do Instituto do Coração da Faculdade de Medicina da Universidade de São Paulo. Nesta aplicação, os resultados mostram uma melhor adequação dos modelos de mistura em relação à utilização de apenas uma distribuição na modelagem dos tempos de seguimentos. Por fim, desenvolvemos um pacote para o ajuste dos modelos apresentados no software R. / Finite mixtures are highly flexible parametric models capable of describing different data features and are widely considered in many contexts, especially in the analysis of heterogeneous data (Marin, 2005). Generally, in finite mixture models, all the components belong to the same parametric family and are only distinguished by the associated parameter vector. In this thesis, we propose a new finite mixture model, capable of handling censored observations, in which the components are the densities from the Gama, Lognormal and Weibull distributions (the GLW finite mixture). These densities are rewritten in such a way that the mean and the variance are the parameters, since the interpretation of such quantities is widespread in various areas of study. In short, we constructed the GLW model and developed its analysis under the bayesian perspective of inference considering scenarios with censorship and cure rate. This analysis includes the parameter estimation, wich is made through simulation methods, construction of hypothesis testing to evaluate covariate effects and to assess the values of the mixture weights, computatution of model adequability measures, which are used to compare different models and estimation of the predictive distribution for new observations. In a simulation study, we evaluated the feasibility of the GLW mixture to recover the original distribution of failure times using hypothesis testing and some model estimated quantities as criteria for selecting the correct distribution. The models developed were applied in the study of the follow-up time of patients with heart failure from the Heart Institute of the University of Sao Paulo Medical School. In this application, results show a better fit of mixture models, in relation to the use of only one distribution in the modeling of the failure times. Finally, we developed a package for the adjustment of the presented models in software R.
40

Modelo de otimização de processos para melhoria da qualidade dos serviços em uma Instituição de ensino público

Paula, Izabel Alinne Alves de 23 July 2013 (has links)
Made available in DSpace on 2015-04-22T22:10:49Z (GMT). No. of bitstreams: 1 izabel.pdf: 5133966 bytes, checksum: 81bc090cf4739c9ffa486ed8ede553e1 (MD5) Previous issue date: 2013-07-23 / The quality since the advent of globalization has become one of the keywords most widespread in society. In the public sector is associated to the rapidity, reliability, precision and security, however, the general perception that the individuals have on the provision of public services in Brazil is not consistent with these adjectives quality. The literature suggests several tools to evaluate and improve the quality in services, but is subjective mechanisms predominate, which are summed to measure customer satisfaction. Admittedly, the quality has focused on the customer, but in the current Era of Quality is assumed that it is generated in the production process. Considering this gap, the question arose: how to optimize processes of the service sector, while focusing on quality improvement, especially processes executed in the public sector of education? To answer this question, it was adapted a model of analysis and processes improvement through the concatenation phases of Method of Analysis and Solution of Problems (MASP) with the phases of Design of Experiments. It was applied the proposed model in the Coordination of Integration Business-School (CIE-E) of IFAM Campus Manaus Donwtown, evaluating 397 records of stages finalized in the year 2012, where the duration of the process was portrayed as the villain. Thus, it was developed an experimental research characterized as exploratory and descriptive in nature and applied qualitative and quantitative approach. It was used Quality Tools for collection and evaluation of the data, as well the Nonparametric Tests for data analysis. Finally, supported on quality criteria and statistician identified that the combination high time load and no labour experience was the ideal combination of controllable factors that interfered in the records stage studied, resulting in lower process time, ie, it determined the optimal region. Thus, with this study, we evaluated the implantation procedure of statistical techniques in the service sector for the optimization and improvement of its processes. / A qualidade desde o surgimento da globalização tornou-se uma das palavras-chave mais difundidas junto à sociedade. No setor público sua concepção está associada à rapidez, confiabilidade, precisão e segurança, contudo, a percepção que os indivíduos têm sobre a prestação de serviços públicos no Brasil, não condiz com estes adjetivos de qualidade. A literatura aponta diversas ferramentas capazes de avaliar e melhorar a qualidade em serviços, entretanto predominam-se mecanismos subjetivos, que se resumem a mensurar a satisfação do cliente. É certo que, a qualidade tem foco no cliente, mas na atual Era da Qualidade assume-se que ela é gerada no processo produtivo. Considerando esta lacuna, surgiu o questionamento: de que forma pode-se otimizar processos do setor de serviço, mantendo o foco na melhoria da qualidade, em especial os processos executados no setor público de ensino? Para responder tal pergunta, adaptou-se um modelo de análise e melhoria de processos, através da concatenação das fases do Método de Análise e Solução de Problemas (MASP) com as etapas de Planejamento Experimental. Aplicou-se o modelo proposto na Coordenação de Integração Empresa-Escola (CIE-E) do IFAM Campus Manaus Centro, avaliando 397 registros de estágios finalizados no ano de 2012, onde o tempo de duração do processo foi apontado como o vilão. Deste modo, desenvolveu-se uma pesquisa experimental caracterizada como exploratória e descritiva, de natureza aplicada e abordagem qualitativa e quantitativa. Fez-se uso das Ferramentas da Qualidade para a coleta e disposição dos dados, como também de Testes Não Paramétricos para a análise dos dados. Ao fim, respaldado em critérios de qualidade e estatístico, identificou-se que a combinação carga horária alta e não experiência trabalhista constituía a combinação ideal dos fatores controláveis que interferiam nos registros de estágio estudados, resultando no menor tempo do processo, ou seja, determinou-se a região ótima. Assim, com esse estudo, pode-se avaliar o procedimento de implantação de técnicas estatísticas no setor de serviço para a otimização e melhoria de seus processos.

Page generated in 0.0361 seconds