• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 104
  • 67
  • 36
  • 32
  • 20
  • 20
  • 18
  • 6
  • 6
  • 4
  • 4
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 344
  • 344
  • 71
  • 65
  • 63
  • 53
  • 53
  • 40
  • 34
  • 33
  • 32
  • 28
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Determinantes da variação geográfica da biomassa flo restal no sul do Brasil: a contribuição de Floresta com Araucária

Rosenfield, Milena Fermina 21 February 2011 (has links)
Submitted by Mariana Dornelles Vargas (marianadv) on 2015-03-26T14:22:21Z No. of bitstreams: 1 determinantes_variacao.pdf: 908319 bytes, checksum: 62b3232a58e65bb0e1abb6ef44b5c2bc (MD5) / Made available in DSpace on 2015-03-26T14:22:21Z (GMT). No. of bitstreams: 1 determinantes_variacao.pdf: 908319 bytes, checksum: 62b3232a58e65bb0e1abb6ef44b5c2bc (MD5) Previous issue date: 2011-02-21 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Uma variedade de fatores ambientais e bióticos afeta a produtividade florestal e determina o acúmulo de biomassa. Em ecossistemas florestais, o aumento da produtividade primária propicia o aumento da biomassa vegetal e consequentemente o aumento do carbono orgânico estocado. Dentre os fatores que influenciam a produção de biomassa, podemos citar temperatura, pluviosidade, tipo de solo, composição florística e regime de distúrbios. Nesse sentido, há o consenso entre pesquisadores de que o aumento da temperatura, a homogeneidade do regime de chuvas e solos férteis aumentam a produtividade e possibilitam um maior acúmulo de biomassa. Além disso, diversos autores propõem que riqueza e diversidade de espécies teriam efeito positivo sobre a biomassa, pois aumentariam a eficiência no uso dos recursos. Os objetivos deste estudo foram avaliar as variáveis que afetam a biomassa florestal viva acima do solo (BAS) na região subtropical do sul do Brasil, além de analisar a distribuição espacial das estimativas de biomassa em escala regional. O estudo foi realizado em Florestas Subtropicais Úmidas do sul do Brasil, classificadas como Florestas Latifoliadas (FL) e Florestas Mistas de Coníferas e Latifoliadas (FM). Um total de 38 parcelas de 1 ha foram selecionadas e todas as árvores com DAP ≥ 9,5 cm foram incluídas para as estimativas de biomassa. Valores de BAS foram obtidos utilizando equações alométricas já publicadas na literatura. As variáveis ambientais (altitude, precipitação, temperatura e tipo de solo) foram obtidas da literatura e as variáveis bióticas (densidade e diversidade) foram calculadas a partir da base de dados. Para o conjunto total de dados, a BAS média foi de 194,3 ± 116,8 Mg ha-1 (média ± DP) e a densidade média de carbono foi de 97,2 ± 58,4 MgC ha-1. As estimativas entre tipos florestais diferiram entre si (t= -4,598; p<0,001): a BAS média foi inferior em FL (AGBFL = 118,0 ± 58,4 Mg ha-1) quando comparada a FM (AGBFM = 249,8 ± 118,1 Mg ha-1). A análise de componentes principais executou de forma satisfatória a redução da base de dados de clima e de solo. A regressão múltipla explanatória explicou 49,8% da variação na BAS (Ylog biomassa = 0,03(0,49)xraiz densidade + 0,11(0,36)x eixo latitudinal - 0,22(-0,85)xeixo altitudinal - 0,03(-0,36)xdiversidade - 0,09(-0,35)xeixo matéria orgânica + 1,66; F5,32=8,34; p<0,001; r2=0,498). A altitude contribuiu mais para o modelo do que qualquer outra variável. Não foi encontrada dependência espacial entre as parcelas. Os resultados do nosso estudo mostram uma relação negativa entre biomassa acima do solo e altitude. Assim, valores elevados de BAS estão localizados em altitudes mais elevadas e sujeitos a temperaturas amenas e frequentes chuvas mensais. Parece haver uma contribuição importante da conífera Araucaria angustifolia nas parcelas de FM, visto que árvores de grande porte da espécie foram encontradas em inúmeras unidades amostrais. Florestas subtropicais parecem ser de grande interesse para o sequestro de carbono, especialmente em áreas de Florestas Mistas. No Brasil, a espécie de conífera ameaçada de extinção A. angustifolia compõe florestas com alta diversidade (Florestas com Araucária), com grande potencial de acúmulo de biomassa e sequestro de carbono, enfocando ainda mais a importância de conservação deste ecossistema. / A variety of environmental and biotic factors affect forest productivity and determines biomass accumulation. In forest ecosystems, the increase in primary productivity results in an increase in plant biomass and consequently elevates storage of organic carbon. Among the factors that influence biomass production, we should mention temperature, rainfall, soil type, floristic composition and disturbance regimes. It is widely accepted among researchers that increasing temperature, rainfall homogeneity and fertile soils increase productivity and enable higher biomass accumulation. Moreover, many authors indicate that species richness and diversity have a positive effect on biomass, because of the higher efficiency on resource use. The objectives of the study were to evaluate the variables affecting live aboveground forest biomass (AGB) in Subtropical Southern Brazil and analyze the spatial distribution of biomass estimates. The study was performed in Subtropical Moist Forests of Southern Brazil, classified as Broadleaf Forests (BF) and Mixed Coniferous-Broadleaf Forests (MF). A total of 38 1-ha plots were selected and all trees with DBH ≥ 9.5 cm were included for biomass estimation. Values for AGB were obtained using published alometric equations. Environmental variables (elevation, rainfall, temperature and soils) were obtained from the literature and biotic variables (density and diversity) were calculated from the data set. For the total number of plots, mean AGB was 194.3 ± 116.8 Mg ha-1 (mean ± SD) and mean carbon density 97.2 ± 58.4 MgC ha-1. Estimates differed between forest types (t= -4.598; p<0.001): mean AGB was lower in BF (AGBBF = 118.0 ± 58.4 Mg ha-1) when compared to MF (AGBMF = 249.8 ± 118.1 Mg ha-1). Principal component analysis performed well in summarizing climate and soil data sets. The explanatory multiple regression explained 49.8% of the variation in AGB (Ylog biomass = 0.03(0.49)xsqroot density + 0.11(0.36)x latitudinal axis - 0.22(-0.85)xelevation axis ? 0.03(-0.36)xdiversity - 0.09(-0.35)xorganic matter axis + 1.66; F5,32=8.34, p<0.001; r2=0.498). Elevation contributed more to the model than any other variable. There was no spatial dependency found between plots. The results from our study showed a negative relationship between aboveground biomass and elevation. Therefore, higher values of AGB are located at higher altitudes and subjected to cooler temperatures and frequent monthly rainfall. There seems to be an important contribution of the coniferous species Araucaria angustifolia in MF plots, since large trees of this species were found in many of the samples. Subtropical forests appear to be of great interest for carbon sequestration, especially in areas of Mixed Coniferous-Broadleaf Forests. In Brazil, the endangered coniferous species A. angustifolia is part of a high diversity forest (Araucaria Forest), with great potential for biomass accumulation and carbon sequestration, emphasizing the importance in conserving this ecosystem.
272

Predição de fator de simultaneidade através de modelos de regressão para proporções contínuas / Prediction of simultaneity factor using regression models for continuous proportions.

Zerbinatti, Luiz Fernando Molinari 29 February 2008 (has links)
O fator de simultaneidade é fundamental no planejamento de redes de distribuição de gás natural. Trata-se de um multiplicador entre 0 e 1 que ajusta o consumo total teórico de um número de aparelhos de utilização em condições reais. Em 2005 o Instituto de Pesquisas Tecnológicas (IPT) e a Companhia de Gás de São Paulo (COMGÁS) realizaram um estudo no qual determinou-se o fator de simultaneidade em um conjunto de edificações residenciais. Um modelo de regressão foi proposto para expressar o fator de simultaneidade em termos da potência total instalada. O modelo ajustado pode ser utilizado para predizer o fator de simultaneidade em novas edificações. O modelo em questão é um modelo de regressão linear normal no qual a variável resposta é o logaritmo do fator de simultaneidade. Nesta dissertação, o objetivo é investigar outras possibilidades de modelos de regressão adequados aos dados obtidos pelo IPT e pela COMGÁS. Especial atenção é dada ao modelo de regressão beta proposto por Ferrari e Cribari-Neto (Journal of Applied Statistics, 2004) por possuir vantagens sobre o modelo de regressão linear normal. O modelo de regressão beta assume que, dadas as covariáveis, a variável resposta possui distribuição beta, sendo adequado para modelar dados observados no intervalo unitário. Desta forma, a transformação na variável resposta - o fator de simultaneidade - é desnecessária. Além disso, é proposta uma nova abordagem para a predição do fator de simultaneidade, diferente de todas as abordagens pesquisadas na literatura, utilizando a técnica de bootstrap. / The simultaneity factor is fundamental in planning gas distribution networks. It is a multiplicator between 0 and 1 that adjusts the theoretical total consumption of a number of devices to realistic conditions. In 2005, the Instituto de Pesquisas Tecnológicas (IPT) and the Companhia de Gás de São Paulo (COMGÁS) performed a study in which the simultaneity factor of gas consumption in a set of residential buildings have been determined. A regression model was proposed to express the simultaneity factor in terms of the total power of installed equipment. The fitted model can be used to predict the simultaneity factor in new buildings. The model they proposed is a normal linear regression model in which the response variable is the logarithm of the simultaneity factor. In the present dissertation, our aim is to investigate other possible regression models suitable to the data obtained by IPT and CONGÁS. Emphasis is given to the beta regression model proposed by Ferrari and Cribari-Neto (Journal of Applied Statistics, 2004) which has a number of advantages over normal linear regression models. The beta regression model assumes that, given the covariates, the response variable has a beta distribution, which is adequate to model data observed in the unit interval. Therefore, no transformation in the response variable, the simultaneity factor, is needed. Additionally, we present a new approach for the prediction of the simultaneity factor, that is different from all the approaches shown in the literature, using the bootstrap technique.
273

Erros não detectáveis no processo de estimação de estado em sistemas elétricos de potência / Undetectable errors in power system state estimation

Fabio, Lizandra Castilho 28 July 2006 (has links)
Na tentativa de contornar os problemas ainda existentes para a detecção e identificação de erros grosseiros (EGs) no processo de estimação de estado em sistemas elétricos de potência (EESEP), realiza-se, neste trabalho, uma análise da formulação dos estimadores aplicados a sistemas elétricos de potência, em especial, o de mínimos quadrados ponderados, tendo em vista evidenciar as limitações dos mesmos para o tratamento de EGs. Em razão da dificuldade de detectar EGs em medidas pontos de alavancamento, foram também analisadas as metodologias desenvolvidas para identificação de medidas pontos de alavancamento. Através da formulação do processo de EESEP como um problema de álgebra linear, demonstra-se o porquê da impossibilidade de detectar EGs em determinadas medidas redundantes, sendo proposto, na seqüência, um método para identificação de medidas pontos de alavancamento. Para reduzir os efeitos maléficos dessas medidas no processo de EESEP verifica-se a possibilidade de aplicar outras técnicas estatísticas para o processamento de EGs, bem como técnicas para obtenção de uma matriz de ponderação adequada. / To overcome the problems still existent for gross errors (GEs) detection and identification in the process of power system state estimation (PSSE), the formulations of the estimators applied to power systems are analyzed, specially, the formulation of the weighted squares estimator. These analyses were performed to show the limitations of these estimators for GEs processing. As leverage points (LP) represent a problem for GEs processing, methodologies for LP identification were also verified. By means of the linear formulation of the PSSE process, the reason for the impossibility of GEs detection in some redundant measurements is shown and a method for LP identification is proposed. To minimize the bad effects of the LP to the PSSE process, the possibility of applying other statistic techniques for GEs processing, as well as techniques to estimate an weighting matrix are also analyzed.
274

Analysis of factors influencing strategies and expectations of Czech new start-ups / Analýza faktorů ovlivňující strategie a očekávání českých začínajících firem

Šála, Miroslav January 2011 (has links)
This thesis goal is to analyze the factors that are influencing the strategies and growth expectations of the Czech start-ups. The analysis is based on the data sample from the Czech GEM 2011 and unique study of the Czech start-ups performed in 2011 as well. Various statistical methods are used to determine which microeconomic factors affect (1) the strategy choice and (2) growth expectations. As for the factors influencing expected growth, the research is concluded by the creation of the regression equations explaining the expected growth in the revenues as well as expected growth in employees. The factors influencing strategy choice are: managers-owners experience, the environment, self-efficacy, gender, and innovativeness. The factors influencing expected growth in revenues are: innovativeness, self-efficacy, competitive strategy, managers-owners experience, social capital, export intention, and business planning. The factors influencing the expected growth in employment are: legal structure of company, export intention, self-efficacy, innovativeness, competitive strategy, business planning. Following variables create the regression equation explaining expected growth in revenues: financial planning, export intention, education, IPR use, and age of entrepreneur. The variables explaining expected growth in employees are: (1) export intention, product newness, and legal structure of the company, (2) product newness, differentiation inclination, and financial projections. Alongside, the Porter's generic strategies framework was proved to fit the data sample while it was showed that a portion of Czech entrepreneurs are "stuck in the middle". By these findings, this thesis provides unique empirical verification of the growth and strategy theory on the sample of the Czech entrepreneurs.
275

Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement error

Jalmar Manuel Farfan Carrasco 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.
276

Regressão logística com erro de medida: comparação de métodos de estimação / Logistic regression model with measurement error: a comparison of estimation methods

Agatha Sacramento Rodrigues 27 June 2013 (has links)
Neste trabalho estudamos o modelo de regressão logística com erro de medida nas covariáveis. Abordamos as metodologias de estimação de máxima pseudoverossimilhança pelo algoritmo EM-Monte Carlo, calibração da regressão, SIMEX e naïve (ingênuo), método este que ignora o erro de medida. Comparamos os métodos em relação à estimação, através do viés e da raiz do erro quadrático médio, e em relação à predição de novas observações, através das medidas de desempenho sensibilidade, especificidade, verdadeiro preditivo positivo, verdadeiro preditivo negativo, acurácia e estatística de Kolmogorov-Smirnov. Os estudos de simulação evidenciam o melhor desempenho do método de máxima pseudoverossimilhança na estimação. Para as medidas de desempenho na predição não há diferença entre os métodos de estimação. Por fim, utilizamos nossos resultados em dois conjuntos de dados reais de diferentes áreas: área médica, cujo objetivo está na estimação da razão de chances, e área financeira, cujo intuito é a predição de novas observações. / We study the logistic model when explanatory variables are measured with error. Three estimation methods are presented, namely maximum pseudo-likelihood obtained through a Monte Carlo expectation-maximization type algorithm, regression calibration, SIMEX and naïve, which ignores the measurement error. These methods are compared through simulation. From the estimation point of view, we compare the different methods by evaluating their biases and root mean square errors. The predictive quality of the methods is evaluated based on sensitivity, specificity, positive and negative predictive values, accuracy and the Kolmogorov-Smirnov statistic. The simulation studies show that the best performing method is the maximum pseudo-likelihood method when the objective is to estimate the parameters. There is no difference among the estimation methods for predictive purposes. The results are illustrated in two real data sets from different application areas: medical area, whose goal is the estimation of the odds ratio, and financial area, whose goal is the prediction of new observations.
277

雙變量脆弱性韋伯迴歸模式之研究

余立德, Yu, Li-Ta Unknown Date (has links)
摘要 本文主要考慮群集樣本(clustered samples)的存活分析,而每一群集中又分為兩種組別(groups)。假定同群集同組別內的個體共享相同但不可觀測的隨機脆弱性(frailty),因此面臨的是雙變量脆弱性變數的多變量存活資料。首先,驗證雙變量脆弱性對雙變量對數存活時間及雙變量存活時間之相關係數所造成的影響。接著,假定雙變量脆弱性服從雙變量對數常態分配,條件存活時間模式為韋伯迴歸模式,我們利用EM法則,推導出雙變量脆弱性之多變量存活模式中母數的估計方法。 關鍵詞:雙變量脆弱性,Weibull迴歸模式,對數常態分配,EM法則 / Abstract Consider survival analysis for clustered samples, where each cluster contains two groups. Assume that individuals within the same cluster and the same group share a common but unobservable random frailty. Hence, the focus of this work is on bivariate frailty model in analysis of multivariate survival data. First, we derive expressions for the correlation between the two survival times to show how the bivariate frailty affects these correlation coefficients. Then, the bivariate log-normal distribution is used to model the bivariate frailty. We modified EM algorithm to estimate the parameters for the Weibull regression model with bivariate log-normal frailty. Key words:bivariate frailty, Weibull regression model, log-normal distribution, EM algorithm.
278

台灣省各地區普查資料之統計分析

莊靖芬 Unknown Date (has links)
本研究的目的為研究台灣省在1990年之15-17歲的在學率,在找出可能影響因素並蒐集好相關的資料後,我們將蒐集到的資料分成兩個部份,一個部份用來建造模型,而另一個部份則用來測試所建立出來的模型。主要的過程是:先利用簡單迴歸模型了解各個可能的因素對於15-17歲的在學率的影響程度,經過許多分析及了解後再對這些變數採取可能的變數轉換(variable transformations),而後再利用三種常用的統計迴歸方法﹝包含有逐步迴歸(stepwise regression)方法、前進選擇(forward selection)方法以及後退消除(backward elimination)方法﹞去發展出一個適當的複迴歸模型(multiple regression model)。對於這個模型,以實際的台灣在學情況來看,我們看不出它有任何的不合理;同時也利用圖形及檢定去驗證模型的假設,其次還做有關迴歸參數的推論(inferences about regression parameters)。再其次,我們運用變異數分析的結果(analysis of variance results)以及新觀察值的預測情形(predictions of new observations)來評估模型的預測能力。最後並利用所得到的最適當的模型,對如何提昇15-17歲青少年的在學率給予適當的建議。 / The objective of this research is to study what factors may affect the schooling rates of 15-17 years old in Taiwan province in 1990. After finding out some possible factors and collecting those data regarding those factors, we separate the data (by stratified random sampling) into two sets. One set is used to construct the model, and the other set shall be used to test the model. The main process to build a regression model is as follows. First, we shall use simple linear regression models to help us to see if each factor may have relation with the schooling rates. With the analysis of residuals and so on, we then make appropriate transformations on each of these factors. Finally, we use three common statistical regression techniques (including stepwise regression, forward selection, and backward elimination methods) to develop a suitable multiple regression model. It seems that, by our understanding of schooling rates in Taiwan, this model is not unreasonable. In addition, we verify the assumptions of the model by graphical methods and statistical tests. We also do the inferences about regression parameters. Furthermore, ye use the results of the analysis of variance and predictions of new observations to evaluate the prediction ability of the model. Finally, we use the most appropriate multiple regression model to give some suggestions to improve (or keep) the schooling rates of 15-17 years old.
279

線性羅吉斯迴歸模型的最佳D型逐次設計 / The D-optimal sequential design for linear logistic regression model

藍旭傑, Lan, Shiuh Jay Unknown Date (has links)
假設二元反應曲線為簡單線性羅吉斯迴歸模型(Simple Linear Logistic Regression Model),在樣本數為偶數的前題下,所謂的最佳D型設計(D-Optimal Design)是直接將半數的樣本點配置在第17.6個百分位數,而另一半則配置在第82.4個百分位數。很遺憾的是,這兩個位置在參數未知的情況下是無法決定的,因此逐次實驗設計法(Sequential Experimental Designs)在應用上就有其必要性。在大樣本的情況下,本文所探討的逐次實驗設計法在理論上具有良好的漸近最佳D型性質(Asymptotic D-Optimality)。尤其重要的是,這些特性並不會因為起始階段的配置不盡理想而消失,影響的只是收斂的快慢而已。但是在實際應用上,這些大樣本的理想性質卻不是我們關注的焦點。實驗步驟收斂速度的快慢,在小樣本的考慮下有決定性的重要性。基於這樣的考量,本文將提出三種起始階段設計的方法並透過模擬比較它們之間的優劣性。 / The D-optimal design is well known to be a two-point design for the simple linear logistic regression function model. Specif-ically , one half of the design points are allocated at the 17.6- th percentile, and the other half at the 82.4-th percentile. Since the locations of the two design points depend on the unknown parameters, the actual 2-locations can not be obtained. In order to dilemma, a sequential design is somehow necessary in practice. Sequential designs disscused in this context have some good properties that would not disappear even the initial stgae is not good enough under large sample size. The speed of converges of the sequential designs is influenced by the initial stage imposed under small sample size. Based on this, three initial stages will be provided in this study and will be compared through simulation conducted by C++ language.
280

Revision Moment for the Retail Decision-Making System

Juszczuk, Agnieszka Beata, Tkacheva, Evgeniya January 2010 (has links)
In this work we address to the problems of the loan origination decision-making systems. In accordance with the basic principles of the loan origination process we considered the main rules of a clients parameters estimation, a change-point problem for the given data and a disorder moment detection problem for the real-time observations. In the first part of the work the main principles of the parameters estimation are given. Also the change-point problem is considered for the given sample in the discrete and continuous time with using the Maximum likelihood method. In the second part of the work the disorder moment detection problem for the real-time observations is considered as a disorder problem for a non-homogeneous Poisson process. The corresponding optimal stopping problem is reduced to the free-boundary problem with a complete analytical solution for the case when the intensity of defaults increases. Thereafter a scheme of the real time detection of a disorder moment is given.

Page generated in 0.0637 seconds