Spelling suggestions: "subject:"[een] EXPONENTIAL"" "subject:"[enn] EXPONENTIAL""
491 |
Comparison of mortality rate forecasting using the Second Order Lee–Carter method with different mortality modelsSulemana, Hisham January 2019 (has links)
Mortality information is very important for national planning and health of a country. Mortality rate forecasting is a basic contribution for the projection of financial improvement of pension plans, well-being and social strategy planning. In the first part of the thesis, we fit the selected mortality rate models, namely the Power-exponential function based model, the ModifiedPerks model and the Heligman and Pollard (HP4) model to the data obtained from the HumanMortality Database [22] for the male population ages 1–70 of the USA, Japan and Australia. We observe that the Heligman and Pollard (HP4) model performs well and better fit the data as compared to the Power-exponential function based model and the Modified Perks model. The second part is to systematically compare the quality of the mortality rate forecasting using the second order Lee–Carter method with the selected mortality rate models. The results indicate that Power-exponential function based model and the Heligman and Pollard (HP4) model gives a more reliable forecast depending on individual countries.
|
492 |
Sparse instances of hard problemsDell, Holger 01 September 2011 (has links)
Diese Arbeit nutzt und verfeinert Methoden der Komplexitätstheorie, um mit diesen die Komplexität dünner Instanzen zu untersuchen. Dazu gehören etwa Graphen mit wenigen Kanten oder Formeln mit wenigen Bedingungen beschränkter Weite. Dabei ergeben sich zwei natürliche Fragestellungen: (a) Gibt es einen effizienten Algorithmus, der beliebige Instanzen eines NP-schweren Problems auf äquivalente, dünne Instanzen reduziert? (b) Gibt es einen Algorithmus, der dünne Instanzen NP-schwerer Probleme bedeutend schneller löst als allgemeine Instanzen gelöst werden können? Wir formalisieren diese Fragen für verschiedene Probleme und zeigen, dass positive Antworten jeweils zu komplexitätstheoretischen Konsequenzen führen, die als unwahrscheinlich gelten. Frage (a) wird als Kommunikation modelliert, in der zwei Akteure kooperativ eine NP-schwere Sprache entscheiden möchten und dabei möglichst wenig kommunizieren. Unter der komplexitätstheoretischen Annahme, dass coNP keine Teilmenge von NP/poly ist, erhalten wir aus unseren Ergebnissen erstaunlich scharfe untere Schranken für interessante Parameter aus verschiedenen Teilgebieten der theoretischen Informatik. Im Speziellen betrifft das die Ausdünnung von Formeln, die Kernelisierung aus der parameterisierten Komplexitätstheorie, die verlustbehaftete Kompression von Entscheidungsproblemen, und die Theorie der probabilistisch verifizierbaren Beweise. Wir untersuchen Fragestellung (b) anhand der Exponentialzeitkomplexität von Zählproblemen. Unter (Varianten) der bekannten Exponentialzeithypothese (ETH) erhalten wir exponentielle untere Schranken für wichtige #P-schwere Probleme: das Berechnen der Zahl der erfüllenden Belegungen einer 2-KNF Formel, das Berechnen der Zahl aller unabhängigen Mengen in einem Graphen, das Berechnen der Permanente einer Matrix mit Einträgen 0 und 1, das Auswerten des Tuttepolynoms an festen Punkten. / In this thesis, we use and refine methods of computational complexity theory to analyze the complexity of sparse instances, such as graphs with few edges or formulas with few constraints of bounded width. Two natural questions arise in this context: (a) Is there an efficient algorithm that reduces arbitrary instances of an NP-hard problem to equivalent, sparse instances? (b) Is there an algorithm that solves sparse instances of an NP-hard problem significantly faster than general instances can be solved? We formalize these questions for different problems and show that positive answers for these formalizations would lead to consequences in complexity theory that are considered unlikely. Question (a) is modeled by a communication process, in which two players want to cooperatively decide an NP-hard language and at the same time communicate as few as possible. Under the complexity-theoretic hypothesis that coNP is not in NP/poly, our results imply surprisingly tight lower bounds for parameters of interest in several areas, namely sparsification, kernelization in parameterized complexity, lossy compression, and probabilistically checkable proofs. We study the question (b) for counting problems in the exponential time setting. Assuming (variants of) the exponential time hypothesis (ETH), we obtain asymptotically tight, exponential lower bounds for well-studied #P-hard problems: Computing the number of satisfying assignments of a 2-CNF formula, computing the number of all independent sets in a graph, computing the permanent of a matrix with entries 0 and 1, evaluating the Tutte polynomial at fixed evaluation points.
|
493 |
Estimação e teste de hipótese baseados em verossimilhanças perfiladas / "Point estimation and hypothesis test based on profile likelihoods"Silva, Michel Ferreira da 20 May 2005 (has links)
Tratar a função de verossimilhança perfilada como uma verossimilhança genuína pode levar a alguns problemas, como, por exemplo, inconsistência e ineficiência dos estimadores de máxima verossimilhança. Outro problema comum refere-se à aproximação usual da distribuição da estatística da razão de verossimilhanças pela distribuição qui-quadrado, que, dependendo da quantidade de parâmetros de perturbação, pode ser muito pobre. Desta forma, torna-se importante obter ajustes para tal função. Vários pesquisadores, incluindo Barndorff-Nielsen (1983,1994), Cox e Reid (1987,1992), McCullagh e Tibshirani (1990) e Stern (1997), propuseram modificações à função de verossimilhança perfilada. Tais ajustes consistem na incorporação de um termo à verossimilhança perfilada anteriormente à estimação e têm o efeito de diminuir os vieses da função escore e da informação. Este trabalho faz uma revisão desses ajustes e das aproximações para o ajuste de Barndorff-Nielsen (1983,1994) descritas em Severini (2000a). São apresentadas suas derivações, bem como suas propriedades. Para ilustrar suas aplicações, são derivados tais ajustes no contexto da família exponencial biparamétrica. Resultados de simulações de Monte Carlo são apresentados a fim de avaliar os desempenhos dos estimadores de máxima verossimilhança e dos testes da razão de verossimilhanças baseados em tais funções. Também são apresentadas aplicações dessas funções de verossimilhança em modelos não pertencentes à família exponencial biparamétrica, mais precisamente, na família de distribuições GA0(alfa,gama,L), usada para modelar dados de imagens de radar, e no modelo de Weibull, muito usado em aplicações da área da engenharia denominada confiabilidade, considerando dados completos e censurados. Aqui também foram obtidos resultados numéricos a fim de avaliar a qualidade dos ajustes sobre a verossimilhança perfilada, analogamente às simulações realizadas para a família exponencial biparamétrica. Vale mencionar que, no caso da família de distribuições GA0(alfa,gama,L), foi avaliada a aproximação da distribuição da estatística da razão de verossimilhanças sinalizada pela distribuição normal padrão. Além disso, no caso do modelo de Weibull, vale destacar que foram derivados resultados distribucionais relativos aos estimadores de máxima verossimilhança e às estatísticas da razão de verossimilhanças para dados completos e censurados, apresentados em apêndice. / The profile likelihood function is not genuine likelihood function, and profile maximum likelihood estimators are typically inefficient and inconsistent. Additionally, the null distribution of the likelihood ratio test statistic can be poorly approximated by the asymptotic chi-squared distribution in finite samples when there are nuisance parameters. It is thus important to obtain adjustments to the likelihood function. Several authors, including Barndorff-Nielsen (1983,1994), Cox and Reid (1987,1992), McCullagh and Tibshirani (1990) and Stern (1997), have proposed modifications to the profile likelihood function. They are defined in a such a way to reduce the score and information biases. In this dissertation, we review several profile likelihood adjustments and also approximations to the adjustments proposed by Barndorff-Nielsen (1983,1994), also described in Severini (2000a). We present derivations and the main properties of the different adjustments. We also obtain adjustments for likelihood-based inference in the two-parameter exponential family. Numerical results on estimation and testing are provided. We also consider models that do not belong to the two-parameter exponential family: the GA0(alfa,gama,L) family, which is commonly used to model image radar data, and the Weibull model, which is useful for reliability studies, the latter under both noncensored and censored data. Again, extensive numerical results are provided. It is noteworthy that, in the context of the GA0(alfa,gama,L) model, we have evaluated the approximation of the null distribution of the signalized likelihood ratio statistic by the standard normal distribution. Additionally, we have obtained distributional results for the Weibull case concerning the maximum likelihood estimators and the likelihood ratio statistic both for noncensored and censored data.
|
494 |
Métodos de estimação de parâmetros em modelos geoestatísticos com diferentes estruturas de covariâncias: uma aplicação ao teor de cálcio no solo. / Parameter estimation methods in geostatistic models with different covariance structures: an application to the calcium content in the soil.Oliveira, Maria Cristina Neves de 17 March 2003 (has links)
A compreensão da dependência espacial das propriedades do solo vem sendo cada vez mais requerida por pesquisadores que objetivam melhorar a interpretação dos resultados de experimentos de campo fornecendo, assim, subsídios para novas pesquisas a custos reduzidos. Em geral, variáveis como, por exemplo, o teor de cálcio no solo, estudado neste trabalho, apresentam grande variabilidade impossibilitando, na maioria das vezes, a detecção de reais diferenças estatísticas entre os efeitos de tratamentos. A consideração de amostras georreferenciadas é uma abordagem importante na análise de dados desta natureza, uma vez que amostras mais próximas são mais similares do que as mais distantes e, assim, cada realização desta variável contém informação de sua vizinhança. Neste trabalho, métodos geoestatísticos que baseiam-se na modelagem da dependência espacial, nas pressuposições Gaussianas e nos estimadores de máxima verossimilhança são utilizados para analisar e interpretar a variabilidade do teor de cálcio no solo, resultado de um experimento realizado na Fazenda Angra localizada no Estado do Rio de Janeiro. A área experimental foi dividida em três regiões em função dos diferentes períodos de adubação realizadas. Neste estudo foram utilizados dados do teor de cálcio obtidos das camadas 0-20cm e 20-40cm do solo, de acordo com as coordenadas norte e leste. Modelos lineares mistos, apropriados para estudar dados com esta característica, e que permitem a utilização de diferentes estruturas de covariâncias e a incorporação da região e tendência linear das coordenadas foram usados. As estruturas de covariâncias utilizadas foram: a exponencial e a Matérn. Para estimar e avaliar a variabilidade dos parâmetros utilizaram-se os métodos de máxima verossimilhança, máxima verossimilhança restrita e o perfil de verossimilhança. A identificação da dependência e a predição foram realizadas por meio de variogramas e mapas de krigagem. Além disso, a seleção do modelo adequado foi feita pelo critério de informação de Akaike e o teste da razão de verossimilhanças. Observou-se, quando utilizado o método de máxima verossimilhança, o melhor modelo foi aquele com a covariável região e, com o método de máxima verossimilhança restrita, o modelo com a covariável região e tendência linear nas coordenadas (modelo 2). Com o teor de cálcio, na camada 0-20cm e considerando-se a estrutura de covariância exponencial foram obtidas as menores variâncias nugget e a maior variância espacial (sill - nugget). Com o método de máxima verossimilhança e com o modelo 2 foram observadas variâncias de predição mais precisas. Por meio do perfil de verossimilhança pode-se observar menor variabilidade dos parâmetros dos variogramas ajustados com o modelo 2. Utilizando-se vários modelos e estruturas de covariâncias, deve-se ser criterioso, pois a precisão das estimativas, depende do tamanho da amostra e da especificação do modelo para a média. Os resultados obtidos foram analisados, com a subrotina geoR desenvolvida por Ribeiro Junior & Diggle (2000), e por meio dela pode-se obter estimativas confiáveis para os parâmetros dos diferentes modelos estimados. / The understanding of the spatial dependence of the properties of the soil becomes more and more required by researchers that attempt to improve the interpretation of the results of field experiments supplying subsidies for new researches at reduced costs. In general, variables as, for example, the calcium content in the soil, studied in this work, present great variability disabling, most of the time, the detection of real statistical differences among the treatment effects. The consideration of georeferenced samples is an important approach in the analysis of data of this nature, because closer samples are more similar than the most distant ones and, thus, each realization of this variable contains information of its neighborhood. In this work, geostatistics methods that are based on the modeling of the spatial dependence, under the Gaussian assumptions and the maximum likelihood estimators, are used to analyze and to interpret the variability of calcium content in the soil, obtained from an experiment carried on at Fazenda Angra, located in Rio de Janeiro, Brazil. The experimental area was divided in three areas depending on the different periods of fertilization. In this study, data of the calcium soil content from the layers 0-20cm and 20-40cm, were used, according to the north and east coordinates. Mixed linear models, ideal to study data with this characteristic, and that allow the use of different covariance structures, and the incorporation of the region and linear tendency of the coordinates, were used. The covariance structures were: the exponential and the Matérn. Maximum likelihood, maximum restricted likelihood and the profile of likelihood methods were used to estimate and to evaluate the variability of the parameters. The identification of the dependence and the prediction were realized using variograms and krigging maps. Besides, the selection of the appropriate model was made through the Akaike information criterion and the likelihood ratio test. It was observed that when maximum likelihood method was used the most appropriate model was that with the region covariate and, with the maximum restricted likelihood method, the best model was the one with the region covariate and linear tendency in the coordinates (model 2). With the calcium content, in the layer 0-20cm and considering the exponential covariance structure, the smallest nugget variances and the largest spatial variance (sill - nugget) were obtained. With the maximum likelihood method and with the model 2 more precise prediction variances were observed. Through the profile of likelihood method, smaller variability of the adjusted variogram parameters can be observed with the model 2. With several models and covariance structures being used, one should be very critical, because the precision of the estimates depends on the size of the sample and on the specification of the model for the average. The obtained results were analyzed, with the subroutine geoR developed by Ribeiro Junior & Diggle (2000), and through this subroutine, reliable estimates for the parameters of the different estimated models can be obtained.
|
495 |
A concepção de um software de matemática para auxiliar na aprendizagem dos alunos da primeira série do ensino médio no estudo das funções exponenciais e logarítmicas / The conception of a mathematics software to help the students learning of the haigh school first class during the study of exponential end logarithm function.Araújo, Elpídio de 22 November 2005 (has links)
Made available in DSpace on 2016-04-27T17:12:56Z (GMT). No. of bitstreams: 1
dissertacao_elpidio_araujo.pdf: 3591682 bytes, checksum: 1e6320d9be62313c3347706ab5174ea4 (MD5)
Previous issue date: 2005-11-22 / Made available in DSpace on 2016-08-25T17:25:40Z (GMT). No. of bitstreams: 2
dissertacao_elpidio_araujo.pdf.jpg: 3662 bytes, checksum: 5abae02d1498a95126dea56a691f200b (MD5)
dissertacao_elpidio_araujo.pdf: 3591682 bytes, checksum: 1e6320d9be62313c3347706ab5174ea4 (MD5)
Previous issue date: 2005-11-22 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This research job has as goal to think up a Mathematics Educational Software for the high school students.
The developed questions in this software have as goal to help in the learning of
exponential and logarithm functions that will provide the users with informations that will contribute to the development of the planned activities.
Our main focus is the student , thus his insertion in a computerized environment opens up one more option to his learning.
The development of the software utilized, as basis, researches involving teachers of Elementary School and High School from private and public schools of São Paulo state.
The main theme of the investigation was the difficulty that the students present on the comprehension of the exponential and logarithm functions.
This research job hunts for an answer for the following inquiry: At which measure the software utilization as teaching tool of the Mathematics contents, related on exponential and logarithm functions, may contribute to the students learning?
The activities were thought up based on the needs of the students identified during the research teachers.
The software application promoted, in the students, a positive attitude in relation to the solutions of the proposals questions. / Este trabalho tem como objetivo conceber para alunos do Ensino Médio um Software Educacional de Matemática.
As questões desenvolvidas neste software têm como objetivo auxiliar na aprendizagem das funções exponenciais e logarítmicas. Elas proporcionarão aos seus usuários informações que contribuirão para o desenvolvimento das atividades.
Como nosso foco principal é o aluno, a sua inserção num ambiente informatizado abre uma opção a mais para a sua aprendizagem.
O desenvolvimento do software utilizou como base pesquisas realizadas com os professores que ministram aulas no Ensino Fundamental e Médio da rede pública e privada do Estado de São Paulo.
O tema principal da investigação foi a dificuldade que os alunos apresentam na compreensão das funções exponenciais e logarítmicas.
Este trabalho procura responder a seguinte questão: em que medida a utilização de um software como ferramenta didática no estudo de conteúdos matemáticos relacionados com as funções exponenciais e logarítmicas contribui na aprendizagem do aluno?
As atividades foram concebidas a partir das necessidades identificadas na pesquisa com os professores.
A aplicação do software desenvolveu nos alunos uma atitude positiva em relação à resolução das questões.
|
496 |
Statistical inference on random graphs and networks / Inferência estatística para grafos aleatórios e redesCerqueira, Andressa 28 February 2018 (has links)
In this thesis we study two probabilistic models defined on graphs: the Stochastic Block model and the Exponential Random Graph. Therefore, this thesis is divided in two parts. In the first part, we introduce the Krichevsky-Trofimov estimator for the number of communities in the Stochastic Block Model and prove its eventual almost sure convergence to the underlying number of communities, without assuming a known upper bound on that quantity. In the second part of this thesis we address the perfect simulation problem for the Exponential random graph model. We propose an algorithm based on the Coupling From The Past algorithm using a Glauber dynamics. This algorithm is efficient in the case of monotone models. We prove that this is the case for a subset of the parametric space. We also propose an algorithm based on the Backward and Forward algorithm that can be applied for monotone and non monotone models. We prove the existence of an upper bound for the expected running time of both algorithms. / Nessa tese estudamos dois modelos probabilísticos definidos em grafos: o modelo estocástico por blocos e o modelo de grafos exponenciais. Dessa forma, essa tese está dividida em duas partes. Na primeira parte nós propomos um estimador penalizado baseado na mistura de Krichevsky-Trofimov para o número de comunidades do modelo estocástico por blocos e provamos sua convergência quase certa sem considerar um limitante conhecido para o número de comunidades. Na segunda parte dessa tese nós abordamos o problema de simulação perfeita para o modelo de grafos aleatórios Exponenciais. Nós propomos um algoritmo de simulação perfeita baseado no algoritmo Coupling From the Past usando a dinâmica de Glauber. Esse algoritmo é eficiente apenas no caso em que o modelo é monotóno e nós provamos que esse é o caso para um subconjunto do espaço paramétrico. Nós também propomos um algoritmo de simulação perfeita baseado no algoritmo Backward and Forward que pode ser aplicado à modelos monótonos e não monótonos. Nós provamos a existência de um limitante superior para o número esperado de passos de ambos os algoritmos.
|
497 |
Enumerating functional substructures of genome-scale metabolic networks : stories, precursors and organisations / Énumération de sous-structures fonctionnelle dans des réseaux métaboliques complets : Histoires métaboliques, précurseurs et organisations chimiquesVieira Milreu, Paulo 19 December 2012 (has links)
Dans cette thèse, nous avons présenté trois méthodes différentes pour l’énumération de sousréseauxparticuliers d’un réseau métabolique: les histoires métaboliques, les ensembles minimaux deprécurseurs et les organisations chimiques. Pour chacune de ces trois méthodes, nous avons présentédes résultats théoriques, et pour les deux premières, nous avons en outre fourni une illustration surcomment les appliquer afin d’étudier le comportement métabolique des organismes vivants. Les histoiresmétaboliques sont définies comme des graphes acycliques dirigés maximaux dont les ensemblesde sources et de cibles sont limités à un sous-ensemble des noeuds. La motivation initiale de cette définitionétait d’analyser des données expérimentales de métabolomique, mais la méthode a égalementété explorée dans un contexte différent. Les ensembles de précurseurs métaboliques sont des ensemblesminimaux de nutriments qui permettent de produire des métabolites d’intérêt. Nous présentons troisméthodes différentes pour l’énumération de tels ensembles minimaux de précurseurs, et nous illustronsleur application dans une étude des échanges métaboliques dans un système symbiotique. Les organisationschimiques sont des ensembles de métabolites qui à la fois sont fermés et s’auto-maintiennent,ce qui reflète des caractéristiques de stabilité dans le sens où aucun nouveau métabolite ne peut êtreproduit et qu’aucun des métabolites déjà présents dans le système ne peut disparaître. / In this thesis, we presented three different methods for enumerating special subnetworks containedin a metabolic network: metabolic stories, minimal precursor sets and chemical organisations. Foreach of the three methods, we gave theoretical results, and for the two first ones, we further providedan illustration on how to apply them in order to study the metabolic behaviour of living organisms.Metabolic stories are defined as maximal directed acyclic graphs whose sets of sources and targets arerestricted to a subset of the nodes. The initial motivation of this definition was to analyse metabolomicsexperimental data, but the method was also explored in a different context. Metabolic precursor setsare minimal sets of nutrients that are able to produce metabolites of interest. We present threedifferent methods for enumerating minimal precursor sets and we illustrate the application in a studyof the metabolic exchanges in a symbiotic system. Chemical organisations are sets of metabolites thatare simultaneously closed and self-maintaining, which captures some stability feature in the
|
498 |
Complexidade descritiva das lÃgicas de ordem superior com menor ponto fixo e anÃlise de expressividade de algumas lÃgicas modais / Descriptive complexity of the logic of higher order with lower fixed point and analysis of expression of some modal logicsCibele Matos Freire 13 August 2010 (has links)
Em Complexidade Descritiva investigamos o uso de logicas para caracterizar classes
problemas pelo vies da complexidade. Desde 1974, quando Fagin provou que NP e capturado
pela logica existencial de segunda-ordem, considerado o primeiro resultado da area,
outras relac~oes entre logicas e classes de complexidade foram estabelecidas. Os resultados
mais conhecidos normalmemte envolvem logica de primeira-ordem e suas extens~oes,
e classes de complexidade polinomiais em tempo ou espaco. Alguns exemplos sÃo que a
logica de primeira-ordem estendida com o operador de menor ponto xo captura a clsse
P e que a logica de segunda-ordem estendida com o operador de fecho transitivo captura
a classe PSPACE. Nesta dissertaÃÃo, analisaremos inicialmente a expressividade de algumas
logicas modais com relacÃo ao problema de decisÃo REACH e veremos que e possvel
expressa-lo com as logicas temporais CTL e CTL. Analisaremos tambem o uso combinado
de logicas de ordem superior com o operador de menor ponto xo e obteremos como
resultado que cada nvel dessa hierarquia captura cada nvel da hierarquia determinstica
em tempo exponencial. Como corolario, provamos que a hierarquia de HOi(LFP) nÃo
colapsa, ou seja, HOi(LFP) HOi+1(LFP) / In Descriptive Complexity, we investigate the use of logics to characterize computational
classes os problems through complexity. Since 1974, when Fagin proved that the
class NP is captured by existential second-order logic, considered the rst result in this
area, other relations between logics and complexity classes have been established. Wellknown
results usually involve rst-order logic and its extensions, and complexity classes
in polynomial time or space. Some examples are that the rst-order logic extended by
the least xed-point operator captures the class P and the second-order logic extended by
the transitive closure operator captures the class PSPACE. In this dissertation, we will
initially analyze the expressive power of some modal logics with respect to the decision
problem REACH and see that is possible to express it with temporal logics CTL and
CTL. We will also analyze the combined use of higher-order logics extended by the least
xed-point operator and obtain as result that each level of this hierarchy captures each
level of the deterministic exponential time hierarchy. As a corollary, we will prove that the
hierarchy of HOi(LFP), for i 2, does not collapse, that is, HOi(LFP) HOi+1(LFP)
|
499 |
Modelo de regressão log-gama generalizado exponenciado com dados censurados / The log-exponentiated generalized gamma regression model with censored dataCouto, Epaminondas de Vasconcellos 22 February 2010 (has links)
No presente trabalho, e proposto um modelo de regressão utilizando a distribuição gama generalizada exponenciada (GGE) para dados censurados, esta nova distribuição e uma extensão da distribuição gama generalizada. A distribuição GGE (CORDEIRO et al., 2009) que tem quatro parâmetros pode modelar dados de sobrevivência quando a função de risco tem forma crescente, decrescente, forma de U e unimodal. Neste trabalho apresenta-se uma expansão natural da distribuição GGE para dados censurados, esta distribuição desperta o interesse pelo fato de representar uma família paramétrica que possui como casos particulares outras distribuições amplamente utilizadas na analise de dados de tempo de vida, como as distribuições gama generalizada (STACY, 1962), Weibull, Weibull exponenciada (MUDHOLKAR et al., 1995, 1996), exponencial exponenciada (GUPTA; KUNDU, 1999, 2001), Rayleigh generalizada (KUNDU; RAKAB, 2005), dentre outras, e mostra-se útil na discriminação entre alguns modelos probabilísticos alternativos. Considerando dados censurados, e abordado o método de máxima verossimilhança para estimar os parâmetros do modelo proposto. Outra proposta deste trabalho e introduzir um modelo de regressão log-gama generalizado exponenciado com efeito aleatório. Por fim, são apresentadas três aplicações para ilustrar a distribuição proposta. / In the present study, we propose a regression model using the exponentiated generalized gama (EGG) distribution for censored data, this new distribution is an extension of the generalized gama distribution. The EGG distribution (CORDEIRO et al., 2009) that has four parameters it can model survival data when the risk function is increasing, decreasing, form of U and unimodal-shaped. In this work comes to a natural expansion of the EGG distribution for censored data, is awake distribution the interest for the fact of representing a parametric family that has, as particular cases, other distributions which are broadly used in lifetime data analysis, as the generalized gama (STACY, 1962), Weibull, exponentiated Weibull (MUDHOLKAR et al., 1995, 1996), exponentiated exponential (GUPTA; KUNDU, 1999, 2001), generalized Rayleigh (KUNDU; RAKAB, 2005), among others, and it is shown useful in the discrimination among some models alternative probabilistics. Considering censored data, the maximum likelihood estimator is considered for the proposed model parameters. Another proposal of this work was to introduce a log-exponentiated generalized gamma regression model with random eect. Finally, three applications were presented to illustrate the proposed distribution.
|
500 |
Etude d'un modèle d'équations couplées Cahn-Hilliard/Allen-Cahn en séparation de phase / Study of a coupled Cahn-Hilliard/Allen-Cahn system in phase separationSaoud, Wafa 04 October 2018 (has links)
Cette thèse est une étude théorique d’un système d’équations de Cahn-Hilliard/Allen-Cahn couplées qui représente un mélange binaire en séparation de phase. Le but principal de l’étude est le comportement asymptotique des solutions en termes d’attracteurs exponentiels/globaux. Pour cette raison, l’existence et l’unicité de la solution sont étudiées tout d’abord. Une des principales applications de ce modèle d’équations est la cristallographie.Dans la première partie de la thèse, on examine le modèle proposé avec des conditions de type Dirichlet sur le bord et une non linéarité régulière de type polynomial : on réussit à trouver un attracteur exponentiel et par conséquence un attracteur global de dimension finie. Une non linéarité singulière de type logarithmique est ensuite prise dans la deuxième partie, cette fonction étant approchée par une suite de fonctions régulières et l’existence d’un attracteur global est démontrée sous des conditions au bord de type Dirichlet.Enfin, dans la dernière partie, le système est couplé avec une équation pour la température: suivant la loi de Fourrier premièrement, puis la loi de type III de la thermo-élasticité. Dans les deux cas, la dynamique de l’équation est étudiée et un attracteur exponentiel est trouvé malgré la difficulté créée par l’équation hyperbolique dans le deuxième cas. / This thesis is a theoretical study of a coupled system of equations of Cahn-Hilliard and Allen-Cahn that represents phase separation of binary alloys. The main goal of this study is to investigate the asymptotic behavior of the solution in terms of exponential/global attractors. For this reason, the existence and unicity of the solution are first studied. One of the most important applications of this proposed model of equations is crystallography. In the first part of the thesis, the system is studied with boundary conditions of Dirichlet type and a regular nonlinearity (a polynomial). There, we prove the existence of an exponential attractor that leads to the existence of a global attractor of finite dimension. Then, a singular nonlinearity (a logarithmic potential) is considered in the second part. This function is approximated by a sequence of regular ones and a global attractor is found.At the end, the system of equations is coupled with temperature: with the Fourrier law in the first case, then with the type III law (in the context of thermoelasticity) in the second case. The dynamics of the equations are studied and the existence of an exponential attractor is obtained.
|
Page generated in 0.0446 seconds