• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1104
  • 49
  • 25
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1199
  • 791
  • 437
  • 269
  • 230
  • 223
  • 200
  • 192
  • 182
  • 156
  • 130
  • 129
  • 121
  • 119
  • 111
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
571

Conflito entre as abordagens de rentabilidade, intermediação e produção em bancos corporate brasileiros: uma análise DEA dois estágios entre 1996 e 2015 / Conflict between profitability, intermediation and production approaches in corporate banks: a two-stage DEA analysis from 1996 to 2015

Marcusso, Matheus Augusto 22 February 2017 (has links)
Esta pesquisa investiga um possível conflito de abordagens de eficiência de 16 bancos corporate (segmento empresarial) brasileiros entre 1996 a 2015 através da análise envoltória de dados (DEA) em dois estágios. No primeiro estágio, é utilizada a ferramenta DEA para estudar a eficiência sob as três principais abordagens de avaliação: intermediação, produção e rentabilidade para cada instituição financeira e período. O segundo estágio é composto pela regressão logística, cujo objetivo é identificar indicadores financeiros do modelo CAMEL - acrônimo que representa cinco estruturas de avaliação de risco bancário: adequação de capital, qualidade dos ativos, qualidade da gestão, rentabilidade, liquidez - e receita operacional (indicador de porte) que estejam relacionados com a eficiência. Os resultados indicam evidências da existência de conflito entre as abordagens, revelando dois perfis opostos de bancos: 1) eficientes em intermediação e produção, cujo grupo é formado por bancos de grande porte, que atuam em segmentos de empresas corporate, com menores índices de imobilização, spread, rentabilidade do ativo, custo de captação e maiores índices de alavancagem, rentabilidade bancária, liquidez e operações de crédito e, 2) eficientes em rentabilidade, cujo grupo é formado pelos bancos de pequeno porte, com foco em segmento small e middle market e indicadores inversos ao do primeiro grupo. Além disso, foi identificado que há indícios de que a eficiência também está relacionada a fatores externos como taxa básica de juros e taxa de câmbio. Estes resultados contribuem com informações relevantes para órgãos reguladores, investidores e gestores de bancos / This study investigate a possible conflict of efficiency approaches of 16 Brazilian corporate banks from 1996 to 2015 through two-stage data envelopment analysis (DEA). In the first stage, DEA is used to study the efficiency at three main approaches: intermediation, production and profitability for each financial institution and period. The second stage consists in a logistic regression, which the objective is to identify the financial indicators of the CAMEL model - an acronym that represents five structures of bank risks\' evaluation: capital, assests, management, equity and liquidity - and operating income (size indicator) that are related to efficiency. The results show that there is evidence of conflict between approaches, revealing two opposite bank profiles: 1) efficient in intermediation and production, which is formed by big banks, focused on corporate companies, with low indicators of immobilization, spread, return on assets, cost of raising funds, and high indicators of bank profitability, leverage, liquidity and credit operations and 2) efficient in profitability, which is formed by small banks, focused on small and middle market segment and with opposite indicators compared to the first group. Besides that, it was identified that is possible that the efficiency is related to external factors like basic interest tax and exchange rate. This results contribute with relevant information to regulators, investors and bank managers
572

Regression models to assess the thermal performance of Brazilian low-cost houses: consideration of opaque envelope / Modelos de regressão para avaliação do desempenho térmico de habitações de interesse social: considerações da envolvente opaca

Favretto, Ana Paula Oliveira 26 January 2016 (has links)
This study examines the potential to conduct building thermal performance simulation (BPS) of unconditioned low-cost housing during the early design stages. By creating a set of regression models (meta-models) based on EnergyPlus simulations, this research aims to promote and simplify BPS in the building envelope design process. The meta-models can be used as tools adapted for three Brazilian cities: Curitiba, São Paulo and Manaus, providing decision support to designers by enabling rapid feedback that links early design decisions to the buildings thermal performance. The low-cost housing unit studied is a detached onestory house with an area of approximately 51m2, which includes two bedrooms, a combined kitchen and living room, and one bathroom. This representative configuration is based on collected data about the most common residence options in some Brazilian cities. This naturally ventilated residence is simulated in the Airflow Network module in EnergyPlus, which utilizes the average wind pressure coefficients provided by the software. The parametric simulations vary the house orientation, U-value, heat capacity and absorptance of external walls and the roof, the heat capacity of internal walls, the window-to-wall ratio, type of window (slider or casement), and the existence of horizontal and/or vertical shading devices with varying dimensions. The models predict the resulting total degree-hours of discomfort in a year due to heat and cold, based on comfort limits defined by the adaptive method for naturally ventilated residences according to ANSI ASHRAE Standard 55. The methodology consists of (a) analyzing a set of Brazilian low-cost housing projects and defining a geometric model that can represent it; (b) determining a list of design parameters relevant to thermal comfort and defining value ranges to be considered; (c) defining the input data for the 10.000 parametric simulations used to create and test the meta-models for each analyzed climate; (d) simulating thermal performance using Energy Plus; (e) using 60% of the simulated cases to develop the regression models; and (f) using the remaining 40% data to validate the meta-models. Except by Heat discomfort regression models for the cities of Curitiba and São Paulo the meta-models show R2 values superior to 0.9 indicating accurate predictions when compared to the discomfort predicted with the output data from EnergyPlus, the original simulation software. Meta-models application tests are performed and the meta-models show great potential to guide designers decisions during the early design. / Esta pesquisa avalia as potencialidades do uso de simulações do desempenho térmico (SDT) nas etapas iniciais de projetos de habitações de interesse social (HIS) não condicionadas artificialmente. Busca-se promover e simplificar o uso de SDT no processo de projeto da envolvente de edificações através da criação de modelos de regressão baseados em simulações robustas através do software EnergyPlus. Os meta-modelos são adaptados ao clima de três cidades brasileiras: Curitiba, São Paulo e Manaus, e permitem uma rápida verificação do desconforto térmico nas edificações podendo ser usados como ferramentas de suporte às decisões de projeto nas etapas iniciais. A HIS considerada corresponde a uma unidade térrea com aproximadamente 51m2, composta por dois quartos, um banheiro e cozinha integrada à sala de jantar. Esta configuração é baseada em um conjunto de projetos representativos coletados em algumas cidades brasileiras (como São Paulo, Curitiba e Manaus). Estas habitações naturalmente ventiladas são simuladas pelo módulo Airflow Network utilizando o coeficiente médio de pressão fornecido pelo EnergyPlus. As simulações consideram a parametrização da orientação da edificação, transmitância térmica (U), capacidade térmica (Ct) e absortância () das paredes externas e cobertura; Ct e U das paredes internas; relação entre área de janela e área da parede; tipo da janela (basculante ou de correr); existência e dimensão de dispositivos verticais e horizontais de sombreamento. Os meta-modelos desenvolvidos fornecem a predição anual dos graus-hora de desconforto por frio e calor, calculados com base nos limites de conforto definidos pelo método adaptativo para residências naturalmente ventiladas (ANSI ASHRAE, 2013). A metodologia aplicada consiste em: (a) análise de um grupo de projetos de HIS brasileiras e definição de um modelo geométrico que os represente; (b) definição dos parâmetros relevantes ao conforto térmico, assim como seus intervalos de variação; (c) definição dos dados de entrada para as 10.000 simulações paramétricas utilizadas na criação e teste de confiabilidade dos meta-modelos para cada clima analisado; (d) simulação do desempenho térmico por meio do software EnergyPlus; (e) utilização de 60% dos casos simulados para o desenvolvimento dos modelos de regressão; e (f) uso dos 40% dos dados restantes para testar a confiabilidade do modelo. Exceto pelos modelos para predição do desconforto por calor para Curitiba e São Paulo, os demais meta-modelos apresentaram valores de R2 superiores a 0.9, indicando boa adequação das predições de desconforto dos modelos gerados ao desconforto calculado com base no resultado das simulações no EnergyPlus. Um teste de aplicação dos meta-modelos foi realizado, demonstrando seu grande potencial para guiar os projetistas nas decisões tomadas durante as etapas inicias de projeto.
573

Modelos bayesianos semi-paramétricos para dados binários / Bayesian semi-parametric models for binary data

Diniz, Márcio Augusto 11 June 2015 (has links)
Este trabalho propõe modelos Bayesiano semi-paramétricos para dados binários. O primeiro modelo é uma mistura em escala que permite lidar com discrepâncias relacionadas a curtose do modelo Logístico. É uma extensão relevante a partir do que já foi proposto por Basu e Mukhopadhyay (2000) ao possibilitar a interpretação da distribuição a priori dos parâmetros através de razões de chances. O segundo modelo usufrui da mistura em escala em conjunto com a transformação proposta por \\Yeo e Johnson (2000) possibilitando que a curtose assim como a assimetria sejam ajustadas e um parâmetro informativo de assimetria seja estimado. Esta transformação é muito mais apropriada para lidar com valores negativos do que a transformação de Box e Cox (1964) utilizada por Guerrero e Johnson (1982) e é mais simples do que o modelo proposto por Stukel (1988). Por fim, o terceiro modelo é o mais geral entre todos e consiste em uma mistura de posição e escala tal que possa descrever curtose, assimetria e também bimodalidade. O modelo proposto por Newton et al. (1996), embora, seja bastante geral, não permite uma interpretação palpável da distribuição a priori para os pesquisadores da área aplicada. A avaliação dos modelos é realizada através de medidas de distância de probabilidade Cramér-von Mises, Kolmogorov-Smirnov e Anderson-Darling e também pelas Ordenadas Preditivas Condicionais. / This work proposes semi-parametric Bayesian models for binary data. The first model is a scale mixture that allows handling discrepancies related to kurtosis of Logistic model. It is a more interesting extension than has been proposed by Basu e Mukhopadyay (1998) because this model allows the interpretation of the prior distribution of parameters using odds ratios. The second model enjoys the scale mixture together with the scale transformation proposed by Yeo and Johnson (2000) modeling the kurtosis and the asymmetry such that a parameter of asymmetry is estimated. This transformation is more appropriate to deal with negative values than the transformation of Box e Cox (1964) used by Guerrero e Johnson (1982) and simpler than the model proposed by Stukel (1988). Finally, the third model is the most general among all and consists of a location-scale mixture that can describe kurtosis and skewness also bimodality. The model proposed by Newton et al (1996), although general, does not allow a tangible interpretation of the a priori distribution for reseachers of applied area. The evaluation of the models is performed through distance measurements of distribution of probabilities Cramer-von Mises Kolmogorov-Smirnov and Anderson-Darling and also the Conditional Predictive sorted.
574

Dados hiperespectrais para predição do teor foliar de nitrogênio em cana-de-açúcar / Hyperspectral data to predict sugarcane leaf nitrogen content

Martins, Juliano Araújo 17 February 2016 (has links)
Uma das alternativas bastante abordada na literatura para a melhoria do gerenciamento da adubação nitrogenada nas culturas é o sensoriamento remoto, tendo destaque a utilização de sensores espectrais na região do visível e infravermelho. Neste trabalho, buscou-se estabelecer as relações existentes entre variações no teor foliar de nitrogênio (TFN) e a resposta espectral da folha de cana-de-açúcar, utilizando um sensor hiperespectral, com avaliações em três áreas experimentais do estado de São Paulo, com diferentes solos e variedades. Cada experimento foi alocado em blocos ao acaso, com parcelas subdividas e quatro repetições. Foram aplicadas doses de 0, 50, 100 e 150 kg de nitrogênio por hectare. A análise espectral foi realizada na folha \"+1\" em laboratório, sendo coletadas 10 folhas por subparcela, estas foram posteriormente submetidas a análise química para o TFN. Observou-se que existe correlação significativa entre o TFN e as variações na resposta espectral da cana-de-açúcar, sendo que a região do verde e de transição entre o vermelho e o infravermelho próximo (\"red-edge\") foram as mais consistentes e estáveis entre as áreas em estudo e safras avaliadas. A análise de componentes principais permitiu reforçar estes resultados, uma vez que as pontuações (\"scores\") dos componentes que apresentaram correlações significativas com o TFN, tiveram maiores pesos (\"loadings\") nas regiões espectrais citadas anteriormente. A partir das curvas espectrais foram também realizados os cálculos dos índices de vegetação já descritos em literatura, e estes submetidos a análise de regressão simples para predição do TFN, sendo os modelos calibrados com dados da safra 2012/13 e validados com os dados da safra 2013/14. Índices espectrais calculados com a combinação dos comprimentos de onda do verde e/ou \"red-edge\" com comprimentos de onda do infravermelho próximo tiveram bom desempenho na fase de validação, sendo que os cinco mais estáveis foram os índices BNi (500, 705 e 750 nm), GNDVI (550 e 780 nm), NDRE (790 e 720 nm), RI-1db (735 e 720 nm) e VOGa (740 e 720 nm). A variedade SP 81 3250 foi cultivada nas três áreas experimentais, o que permitiu a comparação do potencial de modelos calibrados por área, com um modelo generalista para uma mesma variedade cultivada em diferentes condições edáficas. Observou-se que embora o modelo generalista apresente parâmetros estatísticos significativos, existe redução expressiva da sensibilidade de predição quando comparado aos modelos calibrados por área experimental. Empregou-se também nesta pesquisa a análise de regressão linear múltipla por \"stepwise\" (RLMS) que gerou modelos com boa precisão na estimativa do TFN, mesmo quando calibrados por área experimental, independentes da variedade, utilizando de 5 a 6 comprimentos de onda. Concluímos com a presente pesquisa que comprimentos de onda específicos estão associados a variação do TFN em cana-de-açúcar, e estes são reportados na região do verde (próximos a 550 nm) e na região de transição entre os comprimentos de onda do vermelho e infravermelho próximo (680 a 720 nm). Apesar da baixa correlação entre a região do infravermelho próximo com o TFN, índices de vegetação calculados a partir destes comprimentos de onda ou a inserção destes na geração de modelos lineares foram importantes para melhorar a precisão da predição. / An alternative method, quite cited in literature to improve nitrogen fertilization management on crops is the remote sensing, highlighted with the use of spectral sensors in the visible and infrared region. In this work, we sought to establish the relationship between variations in leaf nitrogen content and the spectral response of sugarcane leaf using a hyperspectral sensor, with assessments in three experimental areas of São Paulo state, Brazil, with evaluations in different soils and varieties. Each experimental area was allocated in randomized block, with splitted plots and four repetition, hence, receiving doses of 0, 50, 100 and 150 kg of nitrogen per hectare. Spectral analysis was performed on the \"+1\" leaf in laboratory; we collected 10 leaves per subplots; which were subsequently subjected to chemical analysis to leaf nitrogen content determination. We observed a significant correlation between leaf nitrogen content and variations in sugarcane spectral response, we noticed that the region of the green light and red-edge were the most consistent and stable among the studied area and the crop seasons evaluated. The principal component analysis allowed to reinforce these results, since that the scores for principal components showed significant correlations with the leaf nitrogen content, had higher loadings values for the previous spectral regions mentioned. From the spectral curves were also performed calculations of spectral indices previously described in literature, being these submitted to simple regression analysis to direct prediction of leaf nitrogen content. The models were calibrated with 2012/13 and validated with 2013/14 crop season data. Spectral indices that were calculated with green and/or red-edge, combined with near-infrared wavelengths performed well in the validation phase, and the five most stable were the BNi (500, 705 and 750 nm), GNDVI (550 and 780 nm), NDRE (790 and 720 nm), IR-1dB (735 and 720 nm) and VOGa (740 and 720 nm). The variety SP 81 3250 was cultured in the three experimental areas, allowing to compare the performance of a specific site model with a general model for the same variety growing on different soil conditions. Although the general model presents meaningful statistical parameters, there is a significant reduction in sensitivity to predict leaf nitrogen content of sugarcane when compared with specific site calibrated models. We also used on this research the stepwise multiple linear regression (SMLR) that generated models with good precision to estimate the leaf nitrogen content, even when models are calibrated for an experimental area, regardless of spectral differences between varieties, using 5 to 6 wavelengths. This study shows that specific wavelengths are associated with variation in leaf nitrogen content of sugarcane, and these are reported in the region of green (near to 550 nm) and red-edge (680 to 720nm). Despite the low correlation observed between the infrared wavelengths to the leaf nitrogen content of sugarcane, vegetation indices calculated from these wavelengths, or its insertion on linear models generation were important to improve prediction accuracy.
575

Dias trabalháveis para a colheita mecanizada da cana-de-açúcar no estado de São Paulo, com base em critérios agrometeorológicos / Workable days for sugarcane harvesting in the State of São Paulo, Brazil, based on agrometeorological criteria

Vieira, Luciano Henrique de Souza 17 August 2017 (has links)
A determinação de dias trabalháveis para operações agrícolas de campo é de extrema importância para o dimensionamento de frotas de máquinas agrícolas. Isso é especialmente importante para a cultura da cana-de-açúcar, na qual as operações de campo se estendem por todo o ano, sendo a colheita a operação que mais danos pode trazer aos solos, quando executada sob condições inadequadas, já que essa ocorre por cerca de 8 a 10 meses. Com base nisso, o presente estudo teve como objetivos: definir os critérios para a determinação do número de dias trabalháveis (NDT) para colheita mecanizada da cana-de-açúcar no estado de São Paulo; determinar o NDT de diferentes regiões do estado de São Paulo com base em um critério geral e em critérios específicos para cada região; determinar a probabilidade de ocorrência de sequência do NDT por meio da cadeia de Markov; e elaborar uma planilha modelo para dimensionamento de frota para colheita mecanizada da cana-de-açúcar com base no NDT gerado pelo critério individual e geral. Para a definição dos critérios do NDT foram empregados dados de interrupção da moagem de 30 usinas no estado de São Paulo, para períodos variando de duas a cinco safras. Foram testados critérios de precipitação mínima (PREC), capacidade de água disponível (CAD) e limite da relação entre o armazenamento de água no solo e CAD (ARM/CAD) para se interromper a operação de colheita. De posse dos critérios de PREC, CAD e ARM/CAD para cada região e um critério geral, foram elaborados mapas do NDT para o estado de São Paulo, Posteriormente, definiu-se com base na cadeia de Markov, as probabilidades condicionais e, por meio dessas, as probabilidades de sequência de dias trabalháveis para cada decêndio do ano. Finalmente, foi elaborada uma planilha Excel® para o dimensionamento de frota de colhedoras de cana, com base no NDT. Os resultados mostraram que houve variação no critério para definição do NDT nas diferentes regiões do estado. No entanto, o uso de um critério geral para todo o estado, considerando-se a PREC de 3 mm, CAD de 40 mm e ARM/CAD de 90%, proporcionou resultados muito similares. O mapa de NDT gerado a partir do critério individual para cada região resultou em um erro médio de 24,9 dias por ano, ao passo que o mapa gerado a partir do critério geral resultou em um erro médio de 4,4 dias por ano, sendo este último mais adequado para a determinação do NDT médio para a colheita mecanizada de cana-de-açúcar. Com relação à probabilidade de sequência de dias trabalháveis, observou-se que nas regiões a oeste, noroeste e norte do estado há, em média, maiores probabilidades de ocorrência de dias trabalháveis, sendo que as maiores probabilidades ocorreram entre abril e setembro, com o primeiro decêndio de julho sendo o que tem os maiores valores. A probabilidade de o dia ser trabalhável dado que o anterior foi trabalhável manteve-se sempre com o mínimo em torno de 50% de probabilidade e com o máximo próximo de 90% em todas as regiões avaliadas. Finalmente, observou-se que a variação do NDT em função do critério usado (individual ou geral) não teve impacto expressivo nos custos de produção e totais. Com base nos resultados apresentados, conclui-se que a determinação correta do NDT é fundamental para o dimensionamento de sistemas de colheita da cana-de-açúcar. / The determination of workable days for agricultural field operations is of extreme importance for dimensioning agricultural machinery fleets. This is especially important for sugarcane cultivation, in which field operations extend throughout the year, from 8 to 10 months per year. Based on this, the present study had as objectives: to define the criteria for determining the number of workable days (NWD) for sugarcane harvest in the state of São Paulo; to determine the NWD of different regions of the state of São Paulo based on general criteria and on specific criteria to each region; to determine the probability of a given NWD sequence by means of the Markov chain; and to elaborate a spreadsheet model for sizing the fleet to harvest sugarcane based on the NWD generated by the individual and general criteria For the definition of NWD criteria, the data from harvest interruption of 30 mills in the state of São Paulo, for periods ranging from two to five harvests, were used. The following criteria were tested: minimum precipitation (PREC); soil water holding capacity (SWHC) and the limit of the relationship between soil moisture storage and SWHC (ARM/SWHC), to define the harvest interruption. Based on these criteria for each region and also a general criteria, NWD maps were prepared for the state of São Paulo.. Afterwards, the conditional probabilities were defined on the basis of the Markov chain, and based on them the probabilities of sequences of working days were defined for all year long for each 10-day periods. Finally, an Excel® spreadsheet was programmed for dimensioning sugarcane harvest machines, based on the NWD. The results showed that there was variation in the criteria for the definition of NWD in the different regions of the state. However, the use of a general criteria for the whole state, considering PREC of 3 mm, SWHC of 40 mm and ARM/SWHC of 90% provided very similar results. The NWD maps generated from the individual criteria for each region generated an average error of 24.9 days per year whereas the map generated from the general criteria resulted in an average error of 4.4 days per year, being the last map the most suitable for determining the average NWD. Regarding the probability of sequences of workable days, it was observed that in the western, northwestern and northern regions of the state there is, on average, a greater probability of workable days, with the periods of greatest probability of workable days being between April and September. The probability of the a day be workable considering that the previous one was workable, always remained between 50% and 90% probability in all regions. Finally, for dimensioning havest mechines, it was observed that the variation of NWD as a function of the criteria used (individual or general) had no significant impact on production and total costs, but affected the total investment. It was concluded that the correct determination of NWD is fundamental for the design of sugarcane harvesting systems.
576

Regressão binária nas abordagens clássica e Bayesiana / Binary regression in the classical and Bayesian approaches

Fernandes, Amélia Milene Correia 16 December 2016 (has links)
Este trabalho tem como objetivo estudar o modelo de regressão binária nas abordagens clássica e bayesiana utilizando as funções de ligações probito, logito, complemento log-log, transformação box-cox e probito-assimétrico. Na abordagem clássica apresentamos as suposições e o procedimento para ajustar o modelo de regressão e verificamos a precisão dos parâmetros estimados, construindo intervalos de confiança e testes de hipóteses. Enquanto que, na inferência bayesiana fizemos um estudo comparativo utilizando duas metodologias. Na primeira metodologia consideramos densidades a priori não informativas e utilizamos o algoritmo Metropolis-Hastings para ajustar o modelo. Na segunda metodologia utilizamos variáveis auxiliares para obter a distribuição a posteriori conhecida, facilitando a implementação do algoritmo do Amostrador de Gibbs. No entanto, a introdução destas variáveis auxiliares podem gerar valores correlacionados, o que leva à necessidade de se utilizar o agrupamento das quantidades desconhecidas em blocos para reduzir a autocorrelação. Através do estudo de simulação mostramos que na inferência clássica podemos usar os critérios AIC e BIC para escolher o melhor modelo e avaliamos se o percentual de cobertura do intervalo de confiança assintótica está de acordo com o esperado na teoria assintótica. Na inferência bayesiana constatamos que o uso de variáveis auxiliares resulta em um algoritmo mais eficiente segundo os critérios: erro quadrático médio (EQM), erro percentual absoluto médio (MAPE) e erro percentual absoluto médio simétrico (SMAPE). Como ilustração apresentamos duas aplicações com dados reais. Na primeira, consideramos um conjunto de dados da variação do Ibovespa e a variação do valor diário do fechamento da cotação do dólar no período de 2013 a 2016. Na segunda aplicação, trabalhamos com um conjunto de dados educacionais (INEP-2013), focando nos estudos das variáveis que influenciam a aprovação do aluno. / The objective of this work is to study the binary regression model under the frequentist and Bayesian approaches using the probit, logit, log-log complement, Box-Cox transformation and skewprobit as link functions. In the classical approach we presented assumpti- ons and procedures used in the regression modeling. We verified the accuracy of the estimated parameters by building confidence intervals and conducting hypothesis tests. In the Bayesian approach we made a comparative study using two methodologies. For the first methodology, we considered non-informative prior distributions and the Metropolis-Hastings algorithm to estimate the model. In the second methodology we used auxiliary variables to obtain the known a posteriori distribution, allowing the use of the Gibbs Sampler algorithm. However, the introduction of these auxiliary variables can generate correlated values and needs the use of clustering of unknown quantities in blocks to reduce the autocorrelation. In the simulation study we used the AIC and BIC information criteria to select the most appropriate model and we evaluated whether the coverage probabilities of the confidence interval is in agre- ement with that expected by the asymptotic theory. In Bayesian approach we found that the inclusion of auxiliary variables in the model results in a more efficient algoritm according to the MSE, MAPE and SMAPE criteria. In this work we also present applications to two real datasets. The first dataset used is the variation of the Ibovespa and variation of the daily value of the American dollar at the time of closing the 2013 to 2016. The second dataset, used is an educational data set (INEP-2013), where we are interested in studying the factors that influence the approval of the student.
577

Modelos de regressão beta-binomial/poisson para contagens bivariadas / Beta-binomial/Poisson regression models for repeated bivariate counts

Lora, Mayra Ivanoff 01 April 2004 (has links)
Propomos um modelo Beta-Binomial/Poisson para dados provenientes de um estudo com doentes de Parkinson, que consistiu em contar durante um minuto quantas tarefas foram realizadas e destas, quantas de maneira correta, antes e depois de um treinamento. O objetivo era verificar se o treinamento aumentava o número de tentativas e a porcentagem de acerto, o que destaca o aspecto bivariado do problema. Esse modelo considera tal aspecto, usa uma distribuição mais adequada a dados de contagem e ainda suporta a sobredispersão presente nos dados. Obtemos estimadores de máxima verossimilhança dos parâmetros utilizando um algoritmo de Newton-Raphson. Ilustramos a aplicação da metodologia desenvolvida aos dados do estudo. / We propose a Beta-Binomial/Poisson model to the data from a study with Parkinson disease patients, which consisted in counting for one minute how many trials were attempted and how many of them were successful, before and after a training period. The main goal was to check if training increased the number of trials and success probability, which emphasizes the bivariate aspect of the problem. This model takes this aspect into account, uses a distribution which is usually more adequate to count data and supports the overdispersion present in the data. We obtain the maximum likelihood estimators using a Newton-Raphson algorithm. For illustration, the methodology is applied to the data from study.
578

Determinantes de insolvência bancária no Brasil: identificação de evidências macro e microeconômicas

Aita, Jaqueline 18 June 2010 (has links)
Made available in DSpace on 2015-03-05T19:15:18Z (GMT). No. of bitstreams: 0 Previous issue date: 18 / Nenhuma / Os bancos assumem riscos inerentes aos seus objetivos de intermediação financeira, influenciando diretamente nos fluxos financeiros e produtivos nacionais. O objetivo desta pesquisa foi identificar os determinantes econômicos e financeiros da insolvência dos bancos comerciais e dos bancos múltiplos brasileiros no período de julho de 1994 a junho de 2009, bem como propor modelos que possam prever antecipadamente a falência bancária. Os modelos foram construídos com base em uma amostra composta por 343 bancos, sendo 83 insolventes e 260 solventes. As técnicas econométricas utilizadas para a construção dos modelos foram a análise de regressão logística em dados em painel efeitos fixos e pooled. Destacam-se as evidências macroeconômicas que descrevem o ambiente econômico que contribuiu para a insolvência bancária: a redução da taxa de juros, a queda do saldo da balança comercial, a valorização cambial, o aumento da ocorrência de crises financeiras, a variação positiva dos meios de pagamentos e a queda dos crédito / The banks are risks inherent in their goals of financial intermediation spawned directly in financial and productive flows citizens. The goal of this research was to identify in advance determinants economical and financial insolvency of commercial and multiple Brazilians banks in the period from July 1994 to June 2009 and propose early warning models. The models were built based on a sample composed 343 banks, being 83 insolvents and 260 solvents. The econometric techniques used for construction of models were the logistic regression analysis panel data fix effects and pooled The macroeconomic evidence describing the economic environment of which contributed to the insolvency: the decrease in interest rates, declining balance of trade exchange rates, the increase of financial crises, the positive variation of means of payment and the fall of credits in the economy. About the microeconomic evidence, contacts the downfall of liquid in national and exchange currency, for reduction of assets and liabilities and
579

Modelo para estimar a geração de resíduo de madeira de uso provisório em obras de edifícios verticai

Vargas, Luciano Lopes Amor 12 January 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2017-05-30T11:58:58Z No. of bitstreams: 1 Luciano Lopes Vargas Amor_.pdf: 2139833 bytes, checksum: f496319c4cf4ede22ca6b861b4855664 (MD5) / Made available in DSpace on 2017-05-30T11:58:58Z (GMT). No. of bitstreams: 1 Luciano Lopes Vargas Amor_.pdf: 2139833 bytes, checksum: f496319c4cf4ede22ca6b861b4855664 (MD5) Previous issue date: 2017-01-12 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / CNPQ – Conselho Nacional de Desenvolvimento Científico e Tecnológico / O setor da construção civil é hoje um grande gerador de resíduos, o que impacta negativamente o meio ambiente. Tanto a fase de projeto quanto a de execução de obras podem ocasionar essa geração. Quantificar o resíduo gerado em uma obra é fundamental para ter um controle do problema. A madeira, principal material empregado no uso provisório nos canteiros de obras, pode gerar grande volume de resíduo, sendo que o mesmo é descartado tão logo a obra termina, havendo pouco reaproveitamento ou reciclagem da mesma. Quantificar esse resíduo pode facilitar a gestão e o controle do mesmo, possibilitando a sustentabilidade de um material nobre e importante para o desenvolvimento da construção civil. O objetivo deste estudo consiste em propor um modelo para estimar a geração de resíduos de madeira de uso provisório em obras de edifícios verticais, analisando suas características de projeto e de execução. A estratégia de pesquisa utilizada foi o estudo de casos múltiplos, com coleta de dados de obras localizadas na região metropolitana de Porto Alegre, feitos através de entrevistas, observações in loco e análise de projetos. Ao todo, a amostra estudada foi formada por 22 obras de 11 empresas. Como resultado, foram gerados modelos estatísticos, a partir de regressão múltipla, contendo a variável dependente - volume de resíduos de madeira – e as variáveis independentes relativas ao projeto – número de pavimentos, número de pavimentos em subsolo, volume de concreto executado – e à execução - comprimento linear de tapume em madeira, índice de uso da madeira na confecção dos equipamentos de proteção coletiva e instalações provisórias. O modelo proposto possui R² ajustado de 0,893, indicando que é capaz de explicar 89,3% do fenômeno. As variáveis que mais impactaram foram o número de pavimentos e o número de pavimentos em subsolo. O modelo permite que as empresas construtoras possuam maior controle sobre o volume de resíduo de madeira gerado pelas suas obras, e possibilita realizar ações efetivas em prol da gestão dos resíduos, havendo maior controle e a redução dos mesmos. Possibilita também aplicá-lo em outras obras de diferentes regiões, considerando as características de projeto e de execução locais. / The construction industry is today a great generator of waste, which has a negative impact on the environment. Both the design and execution phases of works can cause this generation. To quantify the waste generated in a work is fundamental to control the problem. Wood, the main material used temporarily in construction sites, can generate a large volume of waste, which is discarded as soon as the work is finished, with little reuse or recycling. Quantifying this waste can facilitate the management and control of the same, allowing the sustainability of a material which is important and noble for the development of civil construction. The aim of this study is to propose a model to estimate the generation of wood waste used temporarily in vertical construction, analyzing their design and execution characteristics. The research strategy used was the study of multiple cases, with data collection of works located in the metropolitan region of Porto Alegre, made through interviews, in situ observations and project analysis In all, the sample studied was formed by 22 works from 11 companies. As a result, statistical models were generated from multiple regression, containing the dependent variable - volume of wood waste - and the independent variables related to the project - number of floors, number of floors in subsoil, volume of concrete executed - and execution - linear length of siding in wood, the index use of wood in the production of collective protection equipment and temporary facilities. The proposed model has an adjusted R² of 0.893, indicating that it is able to explain 89.3% of the phenomenon. The variables that most impacted it were the number of floors and the number of floors in subsoil. The model allows construction companies to have greater control over the volume of wood waste generated by their works, and enables effective actions to be taken in favor of waste management, with greater control and reduction of waste. It can also be applied in other works from different regions, considering the local design and execution characteristics.
580

Análise da política de dividendos: uma aplicação de regressão quantílica

Ströher, Jéferson Rodrigo 31 March 2015 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-06-15T13:06:43Z No. of bitstreams: 1 Jéferson Rodrigo Ströher.pdf: 859725 bytes, checksum: e762d90a4c59cf0d13e4fcf3b22f8df3 (MD5) / Made available in DSpace on 2015-06-15T13:06:43Z (GMT). No. of bitstreams: 1 Jéferson Rodrigo Ströher.pdf: 859725 bytes, checksum: e762d90a4c59cf0d13e4fcf3b22f8df3 (MD5) Previous issue date: 2015-03-31 / Nenhuma / A política de dividendos é importante por envolver a tomada de decisão de distribuir ou não volumes de recursos financeiros através de dividendos ou de juros sobre capital próprio em percentuais diferenciados e formas de tributação diferenciadas no caso Brasileiro. O objetivo deste trabalho foi identificar quais os fatores impactam o índice Payout, como tamanho, liquidez, rentabilidade, endividamento, investimento, lucro, receita e concentração. Para analisar estes aspectos, utilizou-se a técnica de regressão quantílica, com dados da base da Economática e empresas representadas na BM&FBovespa no período de 2009 a 2013, compreendendo 3.073 observações. As estimativas permitem concluir que: a) há uma relação positiva entre tamanho da empresa e a dependente em todos os quantis; b) A variável liquidez foi relacionada positivamente com a variável payout nos quantis 0.5 e 0.75; c) a rentabilidade apresentou relação positiva a partir do quantil 0.5; d) uma relação negativa do endividamento a partir do quantil 0.5; e) uma relação negativa nos quartis 0.75 e 0.9 do investimento; f) O lucro líquido apresentou uma relação negativa no quartil 0.5; g) A receita apresentou uma relação positiva na mediana e no quartil 0.9; h) A concentração não apresentou significância estatística a 1%, no entanto verifica-se uma relação positiva no 0.75 e 0.9 e negativa nos outros quartis; i) Duas dummy’s sendo uma financeira que apresentou relação positiva no quartil 0.1 a 0.5 e a dummy de empresas que distribuíram proventos mesmo com prejuízo que apresentou uma associação negativa e cada vez mais forte. Todas as relações descritas mostram como a variável payout variou de acordo com modificações das variáveis descritas acima. / The dividend policy is importante because it covers the decision-making to distribute or not volumes of financial resources through dividendo or of interest over own capital in differentiate percentuals and tributation differentiate options in the Brazilian case. The objective of this work was to identify which factors impact the payout index, as size, liquidity, rentability, debt, investment, profit, revenue and concentration. To analize these aspects, the quantile regression technique was used, with data from the Economatica base and enterprises represented at BM&F Bovespa in the period from 2009 to 2013, comprehending 3.073 observations. The estimatives allow to conclude that: a) there is a positive ralation between enterprise size and the dependent variable in all the quantiles; b) the liquidity variable had a positive relation with the payout variable in the 0.5 and 0.75 quantile;c)the renatibility presented a positive relation fom the quantile 0,5 on;d)negative relation from the 0.5 quantile on; e) a negative relation in the quantile 0.75 and 0.9 with investment;f)the net profit presented a negative relation in the quantile 0.5;g)the revenue presented a positive relation in the median and 0.9 quantile;h)the concentration didn’t presented statistic significance at 1%, but there was verifyed a positive relation in the 0.75 and 0.9 quantile and negative in the others;i)Two dummys, one finantial that presented a positive relation in the quantile 0.1 and 0.5 and the dummy of the enterprises that distribute proceeds even with losses had a negative and stronger association with the variable payout. All the relations described show how the variable payout had varyed according to the modifications of the described variables above.

Page generated in 0.0373 seconds