• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 580
  • 38
  • 15
  • 13
  • 13
  • 12
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 4
  • 4
  • 1
  • Tagged with
  • 635
  • 635
  • 382
  • 350
  • 315
  • 128
  • 107
  • 83
  • 81
  • 68
  • 67
  • 61
  • 56
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

Fluxos de energia, CO2 e CH4 sobre a floresta em planície de inundação da Ilha do Bananal / Energy, CO2 and CH4 fluxes on the floodplain forest of Bananal Island

Costa, Gabriel Brito 10 August 2015 (has links)
Nesta tese investigou-se os padrões microclimáticos, de fluxos de energia e CO2 em uma floresta em planície de inundação da Ilha do Bananal, com ênfase nos efeitos da inundação sazonal nas variáveis atmosféricas e na produtividade do ecossistema, além de estimativas de fluxos aquáticos evasivos de CO2 e CH4. Para tanto, foram utilizadas técnicas micrometeorológicas de vórtices turbulentos, estimativas de armazenamento vertical de CO2 e dados medidos em uma torre micrometeorológica no período de 2004 a 2014, além de campanhas específicas para medidas de fluxos evasivos. Embora existam ciclos sazonais bem definidos de precipitação, temperatura do ar e umidade na região, controlados pela oferta radiativa, esta não explica diretamente as variações na evapotranspiração quando se busca explicá-la pelo aumento da disponibilidade energética. O particionamento da energia disponível aponta para um domínio do calor latente em comparação ao sensível durante períodos de decaimento do saldo de radiação, configurando um padrão peculiar não reportado na literatura. Os dados de temperatura do ar, precipitação pluviométrica, fluxos turbulentos de CO2 e fluxos energéticos (LE e H) mostraram uma possível influência das secas que ocorreram no lado oeste da região, também neste sítio experimental do leste. Os anos de 2005 e 2010 foram mais quentes, pouco chuvosos e mais secos que os demais anos da série de dados, e em 2010 ocorreu a menor produtividade líquida da estação seca. A inundação mostrou ter um papel importante nos fluxos de CO2, fazendo com que a produtividade bruta, a respiração do ecossistema e a produtividade líquida diminuam, somando-se os efeitos esperados pelo controle radiativo. A produtividade líquida respondeu aos efeitos da inundação semanas antes desta iniciar na torre, persistindo seus efeitos até algumas semanas depois, com a diminuição da produtividade. Já a respiração do ecossistema e a produtividade primária bruta mostraram ser mais sensíveis ao início da estação seca, com uma interrupção no declínio atribuído à inundação, provavelmente devido ao favorecimento da decomposição de matéria orgânica suspensa na água. Os resultados dos fluxos de carbono sugerem uma alta assimilação de CO2 pela floresta, o que requer corroboração através de medidas biométricas, não sendo, contudo, descartada a confiabilidade dos resultados. Os resultados da campanha para medidas de fluxos evasivos mostraram que o rio é uma fonte de CO2 para a atmosfera, e tanto o rio quanto a superfície vegetada atuam como fonte de CH4 para a atmosfera, com maior contribuição da superfície vegetada. As concentrações de metano e carbono na água foram superiores ás amostragens da atmosfera, o que já era esperado conforme os estudos existentes na literatura. / This thesis investigated the microclimate, CO2 and energy fluxes patterns at a forest in floodplain of Bananal Island, with emphasis on the seasonal flooding effects in atmospheric variables and ecosystem productivity, as well as estimates of evasive water CO2 and CH4 fluxes. To carry it out, micrometeorological eddy covariance technique was associated, vertical storage CO2 estimates and measured data in a micrometeorological tower from 2004 to 2014, as well as specific campaigns for evasive fluxes measures. Although there are welldefined seasonal cycles of precipitation, air temperature and humidity in the area controlled by the radiative offer, it does not directly explain the variations in evapotranspiration when seeking for explain it by the increase in energy availability. Partitioning of the available energy points to a latent heat flux domain compared to sensible heat flux during net radiation decay periods, showing a peculiar pattern not reported in the literature. The data air temperature, rainfall, eddy CO2 and energy fluxes (LE and H) showed a possible influence of droughts that occurred on the west side of the region, in this experimental site from the east. The years 2005 and 2010 were warmer, little rainy and drier than the other years of the data series, and in 2010 had the lowest net productivity of the dry season. The flood was shown to have an important role in CO2 streams, causing the gross productivity, ecosystem respiration and the net productivity decrease, adding to the effects expected by the radiative control. The net productivity responded to the effects of flooding weeks before this start in the tower, continuing its effects until a few weeks later, with decreasing productivity. Already ecosystem respiration and gross primary productivity proved to be more sensitive to early dry season, with an interruption in the decline attributed to flooding, probably due to favoring the decomposition of organic matter suspended in the water. The results of the carbon fluxes suggest a high CO2 assimilation by forest, which requires corroboration through biometric measurements and are not, however, ruled out the reliability of the results. The results of the campaign to evasive flux measurements showed that the river is a CO2 source to the atmosphere, and both the river and the vegetated surface act as a CH4 source to the atmosphere, with a greater contribution of the vegetated surface. Methane and carbon concentrations in the water were higher ace sampling the atmosphere, which was expected as existing studies in the literature.
552

Disponibilidade hídrica do rio Piracicaba: utilização do modelo ModSimP32 / Amount of water of the basin of the river Piracicaba: using the model ModsimP32

Azambuja, Celimar 24 July 2000 (has links)
Atualmente, a água tornou-se motivo de conflitos dentro da sociedade, em virtude do aumento das demandas e do comprometimento do seu aspecto qualitativo. A bacia do rio Piracicaba é uma região altamente desenvolvida, com altos índices populacionais e que apresenta disputa de água entre os diversos usuários. Portanto, realizou-se um estudo para determinar a disponibilidade hídrica da bacia, relacionando as demandas de água aluais e futuras. Para isso foi utilizado o modelo ModSimP32, que é basicamente um modelo de simulação e otimização em rede de fluxo. Como dados de entrada do ModsimP32, estão as séries de vazões históricas ou sintéticas e os valores das demandas existentes na bacia. Como se pretendia realizar um estudo a longo prazo, foi necessário a obtenção de séries hidrológicas mais longas, portanto utilizou-se um modelo multivariado AR(1) para gerar novas séries. Para as simulações realizadas, verificou-se que em períodos secos não é possível atender a todas as demandas integralmente e ainda manter as vazões ecológicas no rio, para as regiões de Paulínea e Piracicaba. / Nowadays, the water became the reason of conflicts of the society, due to the increase of the demands and the implicated qualitative aspect. The basin of the river Piracicaba is a highly developed area, with high indexes populations anel it presents dispute of water among several users. Therefore it took place an analysis to verify the amount of water of the basin, relating the demands of water, current and future. For that the model ModSimP32 was used, that is basically a simulation and optimization model in supply network. Among the data of entrance of the ModsimP32, they are the hydrologic series. Therefore it was used of a multivariate model AR(1) to generate new series. For the accomplished simulations, it was verified that is not possible to assist the whole ones integrally the demands in dry periods and still to maintain the ecological flow in the river, for the areas of Paulínea and Piracicaba.
553

Modelos black-litterman e GARCH ortogonal para uma carteira de títulos do tesouro nacional / Black-Litterman and ortogonal GARCH models for a portfolio of bonds issued by the National Treasury

Lobarinhas, Roberto Beier 02 March 2012 (has links)
Uma grande dificuldade da gestão financeira é conseguir associar métodos quantitativos às formas tradicionais de gestão, em um único arranjo. O estilo tradicional de gestão tende a não crer, na devida medida, que métodos quantitativos sejam capazes de captar toda sua visão e experiência, ao passo que analistas quantitativos tendem a subestimar a importância do enfoque tradicional, gerando flagrante desarmonia e ineficiência na análise de risco. Um modelo que se propõe a diminuir a distância entre essas visões é o modelo Black-Litterman. Mais especificamente, propõe-se a diminuir os problemas enfrentados na aplicação da teoria moderna de carteiras e, em particular, os decorrentes da aplicação do modelo de Markowitz. O modelo de Markowitz constitui a base da teoria de carteiras há mais de meio século, desde a publicação do artigo Portfolio Selection [Mar52], entretanto, apesar do papel de destaque da abordagem média-variância para o meio acadêmico, várias dificuldades aparecem quando se tenta utilizá-lo na prática, e talvez, por esta razão, seu impacto no mundo dos investimentos tem sido bastante limitado. Apesar das desvantagens na utilização do modelo de média-variância de Markowitz, a idéia de maximizar o retorno, para um dado nível de risco é tão atraente para investidores, que a busca por modelos com melhor comportamento continuou e é neste contexto que o modelo Black-Litterman surgiu. Em 1992, Fischer Black e Robert Litterman publicam o artigo Portfolio Optimization [Bla92], fazendo considerações sobre o papel de pouco destaque da alocação quantitativa de ativos, e lançam o modelo conhecido por Black-Litterman. Uma grande diferença entre o modelo Black-Litterman e um modelo média-variância tradicional é que, enquanto o segundo gera pesos em uma carteira a partir de um processo de otimização, o modelo Black-Litterman parte de uma carteira de mercado em equilíbrio de longo prazo (CAPM). Outro ponto de destaque do modelo é ser capaz de fornecer uma maneira clara para que investidores possam expressar suas visões de curto prazo e, mais importante, fornece uma estrutura para combinar de forma consistente a informação do equilíbrio de longo prazo (priori) com a visão do investidor (curto prazo), gerando um conjunto de retornos esperados, a partir do qual os pesos em cada ativo são fornecidos. Para a escolha do método de estimação dos parâmetros, levou-se em consideração o fato de que matrizes de grande dimensão têm um papel importante na avaliação de investimentos, uma vez que o risco de uma carteira é fundamentalmente determinado pela matriz de covariância de seus ativos. Levou-se também em consideração que seria desejável utilizar um modelo flexível ao aumento do número de ativos. Um modelo capaz de cumprir este papel é o GARCH ortogonal, pois este pode gerar matrizes de covariâncias do modelo original a partir de algumas poucas volatilidades univariadas, sendo, portanto, um método computacionalmente bastante simples. De fato, as variâncias e correlações são transformações de duas ou três variâncias de fatores ortogonais obtidas pela estimação GARCH. Os fatores ortogonais são obtidos por componentes principais. A decomposição da variância do sistema em fatores de risco permite quantificar a variabilidade que cada fator de risco traz, o que é de grande relevância, pois o gestor de risco poderá direcionar mais facilmente sua atenção para os fatores mais relevantes. Ressalta-se também que a ideia central da ortogonalização é utilizar um espaço reduzido de componentes. Neste modelo de dimensão reduzida, suficientes fatores de risco serão considerados, assim, os demais movimentos, ou seja, aqueles não capturados por estes fatores, serão considerados ruídos insignificantes para este sistema. Não obstante, a precisão, ao desconsiderar algumas componentes, irá depender de o número de componentes principais ser suficiente para explicar grande parte da variação do sistema. Logo, o método funcionará melhor quando a análise de componentes principais funcionar melhor, ou seja, em estruturas a termo e outros sistemas altamente correlacionados. Cabe mencionar que o GARCH ortogonal continua igualmente útil e viável quando pretende-se gerar matriz de covariâncias de fatores de risco distintos, isto é, tanto dos altamente correlacionados, quanto daqueles pouco correlacionados. Neste caso, basta realizar a análise de componentes principais em grupos correlacionados. Feito isto, obtêm-se as matrizes de covariâncias utilizando a estimação GARCH. Em seguida faz-se a combinação de todas as matrizes de covariâncias, gerando a matriz de covariâncias do sistema original. A estimação GARCH foi escolhida pois esta é capaz de captar os principais fatos estilizados que caracterizam séries temporais financeiras. Entende-se por fatos estilizados padrões estatísticos observados empiricamente, que, acredita-se serem comuns a um grande número de séries temporais. Séries financeiras com suficiente alta frequência (observações intraday e diárias) costumam apresentar tais características. Este modelo foi utilizado para a estimação dos retornos e, com isso, obtivemos todas as estimativas para que, com o modelo B-L, pudéssemos gerar uma carteira ótima em um instante de tempo inicial. Em seguida, faremos previsões, obtendo carteiras para as semanas seguintes. Por fim, mostraremos que a associação do modelo B-L e da estimação GARCH ortogonal pode gerar resultados bastante satisfatórios e, ao mesmo tempo, manter o modelo simples e gerar resultados coerentes com a intuição. Este estudo se dará sobre retornos de títulos de renda fixa, mais especificamente, títulos emitidos pelo Tesouro Nacional no mercado brasileiro. Tanto a escolha do modelo B-L, quanto a escolha por utilizar uma carteira de títulos emitidos pelo Tesouro Nacional tiveram como motivação o objetivo de aproximar ferramentas estatísticas de aplicações em finanças, em particular, títulos públicos federais emitidos em mercado, que têm se tornado cada vez mais familiares aos investidores pessoas físicas, sobretudo através do programa Tesouro Direto. Ao fazê-lo, espera-se que este estudo traga informações úteis tanto para investidores, quanto para gestores de dívida, uma vez que o modelo média-variância presta-se tanto àqueles que adquirem títulos, buscando, portanto, maximizar retorno para um dado nível de risco, quanto para aqueles que emitem títulos, e que, portanto, buscam reduzir seus custos de emissão a níveis prudenciais de risco. / One major challenge to financial management resides in associating traditional management with quantitative methods. Traditional managers tend to be skeptical about the quantitative methods contributions, whereas quantitative analysts tend to disregard the importance of the traditional view, creating clear disharmony and inefficiency in the risk management process. A model that seeks to diminish the distance between these two views is the Black-Litterman model (BLM). More specifically, it comes as a solution to difficulties faced when using modern portfolio in practice, particularly those derived from the usage of the Markowitz model. Although the Markowitz model has constituted the basis of portfolio theory for over half century, since the publication of the article Portfolio Selection [Mar52], its impact on the investment world has been quite limited. The Markowitz model addresses the most central objectives of an investment: maximizing the expected return, for a given level of risk. Even though it has had a standout role in the mean-average approach to academics, several difficulties arise when one attempts to make use of it in practice. Despite the disadvantages of its practical usage, the idea of maximizing the return for a given level of risk is so appealing to investors, that the search for models with better behavior continued, and is in this context that the Black-Litterman model came out. In 1992, Fischer Black and Robert Litterman wrote an article on the Black-Litterman model. One intrinsic difference between the BLM and a traditional mean-average one is that, while the second provides the weights of the assets in a portfolio out of a optimization routine, the BLM has its starting point at the long-run equilibrium market portfolio(CAPM). Another highlighting point of the BLM is the ability to provide one clear structucture that is able to combine the long term equilibrium information with the investors views, providing a set of expected returns, which, together, will be the input to generate the weights on the assets. As far as the estimation process is concerned, and for the purpose of choosing the most appropriate model, it was taken into consideration the fact that the risk of a portfolio is determined by the covariation matrix of its assets and, being so, matrices with large dimensions play an important role in the analysis of investments. Whereas, provided the application under study, it is desirable to have a model that is able to carry out the analysis for a considerable number of assets. For these reasons, the Orthogonal GARCH was selected, once it can generate the matrix of covariation of the original system from just a few univariate volatilities, and for this reason, it is a computationally simple method. The orthogonal factors are obtained with principal components analysis. Decomposing the variance of the system into risk factors is highly important, once it allows the risk manager to focus separately on each relevant source of risk. The main idea behind the orthogonalization consists in working with a reduced dimension of components. In this kind of model, sufficient risk factors are considered, thus, the variability not perceived by the model will be considered insigficant noise to the system. Nevertheless, the precision, when not using all the components, will depend on the number of components be sufficient to explain the major part of the variability. Moreover, the model will provide reasonable results depending on principal component analysis performing properly as well, what will be more likely to happen, in highly correlated systems. It is worthy of note that the Orthogonal GARCH is equally useful and feasible when one intends to analyse a portfolio consisting of assets across various types of risk, it means, a system which is not highly correlated. It is common to have such a portfolio, with, for instance, currency rates, stocks, fixed income and commodities. In order to make it to perform properly, it is necessary to separate groups with the same kind of risk and then carry out the principal component analysis by group and then merge the covariance matrices, producing the covariance matrix of the original system. To work together with the orthogonalization method, the GARCH model was chosen because it is able to draw the main stylized facts which characterize financial time series. Stylized facts are statistical patterns empirically observed, which are believed to be present in a number of time series. Financial time series which sufficient high frequency (intraday, daily and even weekly) usually present such behavior. For estimating returns purposes, it was used a ARMA model, and together with the covariance matrix estimation, we have all the parameters needed to perform the BLM study, coming out, in the end, with the optimal portfolio in a given initial time. In addition, we will make forecasts with the GARCH model, obtaining optimal portfolio for the following weeks. We will show that the association of the BLM with the Orthogonal GARCH model can generate satisfactory and coherent with intuition results and, at the same time, keeping the model simple. Our application is on fixed income returns, more specifically, returns of bonds issued in the domestic market by the Brazilian National Treasury. The motivation of this work was to put together statistical tolls and finance uses and applications, more specifically those related to the bonds issued by the National Treasuy, which have become more and more popular due to the \"Tesouro Direto\" program. In conclusion, this work aims to bring useful information either for investors or to debt managers, once the mean-variance model can be useful for those who want to maximize return at a given level or risk as for those who issue bonds, and, thus, seek to reduce their issuance costs at prudential levels of risk.
554

Modelo empírico linear para previsão da disponibilidade hídrica integrada em função da média móvel da precipitação / Empirical linear model for water availability forecast as a function of the rainfall moving average

Gómez García, Derly Estefanny 30 June 2016 (has links)
Variações climáticas podem resultar na entrada insuficiente de água no balanço hídrico de uma região, acarretando em inconsistências relacionadas à outorga de água superficial. O sistema de outorga de água superficial utiliza as vazões percentis (Q7,10, Q90, Q95) para definir a vazão máxima outorgável. No entanto, em períodos de estiagem tais vazões de referência podem não ser suficientes para atender a demanda outorgada, demandando a captação de águas subterrâneas para contrabalançar essa insuficiência hídrica do manancial superficial. Portanto, a outorga dos recursos hídricos deve ocorrer de forma integrada e sustentável, considerando a alteração da descarga do aquífero para o rio devido à captação subterrânea. O objetivo deste trabalho é estimar a disponibilidade hídrica integrada (superficial e subterrânea), por meio de um modelo empírico linear, proposto como função da média móvel da precipitação de períodos anteriores relacionados ao tempo de regulação do aquífero. Técnicas de correlação e espectrais foram empregadas na análise de séries temporais de precipitação (P) e vazão (Q) da bacia hidrográfica do Ribeirão da Onça, com o objetivo de determinar os tempos de resposta de Q em relação a P. A metodologia proposta foi verificada para precipitação e vazões observadas na bacia com área de 65 km2 no período de 2003 a 2014. Os resultados indicam que o aquífero armazena uma parcela de água precipitada e controla o fluxo para o rio, com tempos de regulação de aproximadamente 60 dias para o escoamento subsuperficial e de aproximadamente 2 anos para o escoamento de base. A metodologia também foi testada para duas sub-bacias hidrográficas do Rio Jacaré-Guaçu, com áreas de 1867 e 3519 km2. A adoção da metodologia proposta permite calcular uma vazão de referência sustentável, possibilitando prever a variação da vazão de base nos períodos de recessão, por estar definida em função de precipitações passadas. Portanto, tal vazão seria mais condizente com as observadas no meio ambiente, proporcionando um adequado funcionamento do ecossistema, garantindo assim a sua preservação. / Climatic variation may result in insufficient input of water in the water balance in a region, resulting in inconsistencies in the water rights permits. Brazilian water allocation system uses the flow duration curves (Q7,10, Q90, Q95) to establish the maximum allowable discharge. However, during droughts such reference discharges may not reach the water rights permits, requiring groundwater extraction to compensate this deficiency in surface water bodies. Hence, the water right permits must be integral, considering the base flow variation due to the groundwater extraction. The aim of this study is to determine the integrated water availability (surface and groundwater), using an empirical linear model, proposed as a function of the average rainfall of previous periods related to the aquifer regulation time. Correlation and spectral techniques were employed for time-series analysis of precipitation (P) and discharge (Q) in the Ribeirão da Onça watershed, to determine response times of Q as a function of P. The proposed methodology was developed for precipitation and discharge observed from 2003 to 2014 in a watershed with an area of 65 km2. The obtained results indicate that the aquifer stores the rainfall water with regulation times of approximately 60 days for the subsurface flow, ans approximately 2 years for the base flow. The methodology was also tested for two sub-basins of the Jacaré-Guaçú River watershed, with areas of 1867 and 3519 km2.The proposed methodology allows the estimation of a sustainable reference discharge making it possible to predict the base flow variation during recession periods, since it is defined as a function of past rainfall. Therefore, this discharge is more consistent with the values observed in the environment, allowing a proper functioning of the ecosystem, thereby ensuring their preservation.
555

Regressão não-paramétrica com erros correlacionados via ondaletas. / Non-parametric regression with correlated errors using wavelets

Porto, Rogério de Faria 03 October 2008 (has links)
Nesta tese, são obtidas taxas de convergência a zero, do risco de estimação obtido com regressão não-paramétrica via ondaletas, quando há erros correlacionados. Quatro métodos de regressão não-paramétrica via ondaletas, com delineamento desigualmente espaçado são estudados na presença de erros correlacionados, oriundos de processos estocásticos. São apresentadas condições sobre os erros e adaptações aos procedimentos necessárias à obtenção de taxas de convergência quase minimax, para os estimadores. Sempre que possível são obtidas taxas de convergência para os estimadores no domínio da função, sob condições bastante gerais a respeito da função a ser estimada, do delineamento e da correlação dos erros. Mediante estudos de simulação, são avaliados os comportamentos de alguns métodos propostos quando aplicados a amostras finitas. Em geral sugere-se usar um dos procedimentos estudados, porém aplicando-se limiares por níveis. Como a estimação da variância dos coecientes de detalhes pode ser problemática em alguns casos, também se propõe um procedimento iterativo semi-paramétrico geral para métodos que utilizam ondaletas, na presença de erros em séries temporais. / In this thesis, rates of convergence to zero are obtained for the estimation risk, for non-parametric regression using wavelets, when the errors are correlated. Four non-parametric regression methods using wavelets, with un-equally spaced design are studied in the presence of correlated errors, that come from stochastic processes. Conditions on the errors and adaptations to the procedures are presented, so that the estimators achieve quasi-minimax rates of convergence. Whenever is possible, rates of convergence are obtained for the estimators in the domain of the function, under mild conditions on the function to be estimated, on the design and on the error correlation. Through simulation studies, the behavior of some of the proposed methods is evaluated, when used on finite samples. Generally, it is suggested to use one of the studied methods, however applying thresholds by level. Since the estimation of the detail coecients can be dicult in some cases, it is also proposed a general semi-parametric iterative procedure, for wavelet methods in the presence of time-series errors.
556

Redes neurais não-supervisionadas temporais para identificação e controle de sistemas dinâmicos / Temporal unsupervised neural networks for identification and control of dynamical systems

Barreto, Guilherme de Alencar 20 January 2003 (has links)
A pesquisa em redes neurais artificiais (RNAs) está atualmente experimentando um crescente interesse por modelos que utilizem a variável tempo como um grau de liberdade extra a ser explorado nas representações neurais. Esta ênfase na codificação temporal (temporal coding) tem provocado debates inflamados nas neurociências e áreas correlatas, mas nos últimos anos o surgimento de um grande volume de dados comportamentais e fisiológicos vêm dando suporte ao papel-chave desempenhado por este tipo de representação no cérebro [BALLARD et al. (1998)]. Contribuições ao estudo da representação temporal em redes neurais vêm sendo observadas nos mais diversos tópicos de pesquisa, tais como sistemas dinâmicos não-lineares, redes oscilatórias, redes caóticas, redes com neurônios pulsantes e redes acopladas por pulsos. Como conseqüência, várias tarefas de processamento da informação têm sido investigada via codificação temporal, a saber: classificação de padrões, aprendizagem, memória associativa, controle sensório-motor, identificação de sistemas dinâmicos e robótica. Freqüentemente, porém, não fica muito claro até que ponto a modelagem dos aspectos temporais de uma tarefa contribui para aumentar a capacidade de processamento da informação de modelos neurais. Esta tese busca apresentar, de uma maneira clara e abrangente, os principais conceitos e resultados referentes à proposição de dois modelos de redes neurais não-supervisionadas (RNATs), e como estas lançam mão da codificação temporal para desempenhar melhor a tarefa que lhes é confiada. O primeiro modelo, chamado rede competitiva Hebbiana temporal (competitive temporal Hebbian - CTH), é aplicado especificamente em tarefas de aprendizagem e reprodução de trajetórias do robô manipulador PUMA 560. A rede CTH é uma rede neural competitiva cuja a principal característica é o aprendizado rápido, em apenas uma época de treinamento, de várias trajetórias complexas contendo ) elementos repetidos. As relações temporais da tarefa, representadas pela ordem temporal da trajetória, são capturadas por pesos laterais treinados via aprendizagem hebbiana. As propriedades computacionais da rede CTH são avaliadas através de simulações, bem como através da implementação de um sistema de controle distribuído para o robô PUMA 560 real. O desempenho da rede CTH é superior ao de métodos tabulares (look-up table) tradicionais de aprendizagem de trajetórias robóticas e ao de outras técnicas baseadas em redes neurais, tais como redes recorrentes supervisionadas e modelos de memória associativa bidirecional (BAM). O segundo modelo, chamado rede Auto-Organizável NARX (Self-Organizing NARX-SONARX), é baseado no conhecido algoritmo SOM, proposto por KOHONEN (1997). Do ponto de vista computacional, as propriedades de rede SONARX são avaliadas em diferentes domínios de aplicação, tais como predição de séries temporais caóticas, identificação de um atuador hidráulico e no controle preditivo de uma planta não-linear. Do ponto de vista teórico, demonstra-se que a rede SONARX pode ser utilizada como aproximador assintótico de mapeamentos dinâmicos não-lineares, graças a uma nova técnica de modelagem neural, chamada Memória Associativa Temporal via Quantização Vetorial (MATQV). A MATQV, assim como a aprendizagem hebbiana da rede CTH, é uma técnica de aprendizado associativo temporal. A rede SONARX é comparada com modelos NARX supervisionados, implementados a partir das redes MLP e RBF. Em todos os testes realizados para cada uma das tarefas citadas no parágrafo anterior, a rede SONARX tem desempenho similar ou melhor do que o apresentado por modelos supervisionados tradicionais, com um custo computacional consideravelmente menor. A rede SONARX é também comparada com a rede CTH na parendizagem de trajetórias robóticas complexas, com o intuito de destacar as principais diferenças entre os dois ) tipos de aprendizado associativo. Esta tese também propõe uma taxonomia matemática, baseada na representação por espaço de estados da teoria de sistemas, que visa classificar redes neurais não-supervisionadas temporais com ênfase em suas propriedades computacionais. Esta taxonomia tem como principal objetivo unificar a descrição de modelos neurais dinâmicos, facilitando a análise e a comparação entre diferentes arquiteturas, contrastando suas características representacionais e operacionais. Como exemplo, as redes CTH e a SONARX serão descritas usando a taxonomia proposta. / Neural network research is currently witnessing a significant shift of emphasis towards temporal coding, which uses time as an extra degree of freedom in neural representations. Temporal coding is passionately debated in neuroscience and related fields, but in the last few years a large volume of physiological and behavioral data has emerged that supports a key role for temporal coding in the brain [BALLARD et al. (1998)]. In neural networks, a great deal of research is undertaken under the topics of nonlinear dynamics, oscillatory and chaotic networks, spiking neurons, and pulse-coupled networks. Various information processing tasks are investigated using temporal coding, including pattern classification, learning, associative memory, inference, motor control, dynamical systems identification and control, and robotics. Progress has been made that substantially advances the state-of-the-art of neural computing. In many instances, however, it is unclear whether, and to what extent, the temporal aspects of the models contribute to information processing capabilities. This thesis seeks to present, in a clear and collective way, the main issues and results regarding the proposal of two unsupervised neural models, emphasizing how these networks make use of temporal coding to perform better in the task they are engaged in. The first model, called Competitive Temporal Hebbian (CTH) network, is applied specifically to learning and reproduction of trajectories of a PUMA 560 robot. The CTH model is a competitive neural network whose main characteristic is the fast learning, in just one training epoch, of multiple trajectories containing repeated elements. The temporal relationships within the task, represented by the temporal order of the elements of a given trajectory, are coded in lateral synaptic trained with hebbian learning. The computational properties of the CTH network are assessed through simulations, as well ) as through the practical implementation of a distributed control system for the real PUMA 560 robot. The CTH performs better than conventional look-up table methods for robot trajectory learning, and better than other neural-based techniques, such as supervised recurrent networks and bidirectional associative memory models. The second model, called Self-Organizing NARX (SONARX) network, is based on the well-known SOM algorithm by KOHONEN (1997). From the computational view-point, the properties of the SONARX model are evaluated in different application domains, such as prediction of chaotic time series, identification of an hydraulic actuator and predictive control of a non-linear plant. From the theoretic viewpoint, it is shown that the SONARX model can be seen as an asymptotic approximator for nonlinear dynamical mappings, thanks to a new neural modelling technique, called Vector-Quantized Temporal Associative Memory (VQTAM). This VQTAM, just like the hebbian learning rule of the CTH network, is a temporal associative memory techniques. The SONARX network is compared with supervised NARX models which based on the MLP and RBF networks. For all simulations, in each one of the forementioned application domains, the SONARX network had a similar and sometimes better performance than those observed for standard supervised models, with the additional advantage of a lower computational cost. The SONARX model is also compared with the CTH network in trajectory reproduction tasks, in order to contrast the main differences between these two types of temporal associative learning models. In this thesis, it is also proposed a mathematical taxonomy, based on the state-space representation of dynamical systems, for classification of unsupervised temporal neural networks with emphasis in their computational properties. The main goal of this taxonomy is to unify the description of dynamic neural models, ) facilitating the analysis and comparison of different architectures by constrasting their representational and operational characteristics. Is is shown how the CTH and SONARX models can be described using the proposed taxonomy.
557

ANÁLISE DAS OSCILAÇÕES DAS CORRENTES OBSERVADAS NA BAÍA DE ILHA GRANDE (RJ). / Analysis of the current oscillations observed at Ilha Grande Bay (RJ)

Correa, Marco Antonio 04 May 1994 (has links)
Series temporais de correntes, vento (força e direção), temperatura e salinidade, com duração de 24h, obtidas em 5 estações na Baia da Ilha Grande (rj), de 3-29/01/82, foram analisadas. As medições de corrente foram feitas a5, 12 e 20m, a cada 5min e a 2m acima do fundo, a cada 12min; temperatura e salinidade em cinco profundidades a cada 3h e vento a cada 1h. Foram utilizadas análises de series temporais através dos métodos diretos (periodograma) e indireto para as estimativas espectrais alisadas, bem como as equações hidrodinâmicas na determinação dos períodos. Foram utilizados os testes: ruído branco e fisher-whittle, a análise dos espectros rotatórios e a análise cruzada entre vento e corrente, ao longo de três camadas: superfície intermediaria e de fundo. Foram determinadas oscilações de 4,8h e identificadas como seiches internos e detectadas oscilações com período de 3,4h associadas à ressonância com o vento. Em todo o sistema da baia o período de 6h mostrou-se significativo, correspondendo à oscilação natural da baia. Foram detectadas oscilações de alta freqüência 11 e 20min, 20cm/s eventualmente associadas a vórtices e meandros da corrente. Água subtropical na camada de fundo da baia / Temporal series of currents, wind, water temperature and salinity, obtained from 5 oceanographic stations located in and around Ilha Grande Bay (RJ, Brazil), from January 23 to 29, 1982, were analyzed. AlI series have 24 hours. Currents measu¬rements were dione at depths of 5, 12, 20 m (every 5 minutes) and near the bottom (every 12 minutes). Temperature and salinity data were taken from 5 depths every 3 hours for each, while the wind was measured every hour. The present work was per¬formed in order to investigate short-period oscillations present in the region, related to density stratification and to the features of the basin, as well as to describe the circulation patterns and currents variations during one day interval. Two kinds of analysis were used: temporal series analysis, using statistical and spectral methods, and calculations by hydrodynamic motion equations. In temporal series analysis the direct (periodogram) and indirect methods were used for the spectral estimations. White-noise, Fisher- Whittle tests and rotational spectra analysis were also applied, besides the cross spectrum analysis for the data about winds and currents. The results indicate an intense and unidirectional circulation in the layer above 5 meters, from the western to the eastern portion of the Bay, through Central Channel. In this layer, on the eastern sea-opening side, a flux toward the Bay was observed. These motions, within 5 meters depth, were attributed to a circulation generated by a horizontal density difference between oceanic and inshore waters, with few contribution from tides and winds. At intermediate and near bottom layers, a horizontal homogeneity was observed and, consequent1y, smaller horizontal density gradients were detected. This way, circulation caused by tides was stronger than the movements forced by su¬perficial layers. Resultant bottom currents, observed at the Bay openings, led to the open-sea. At Central Channel, 4.8 h period oscillations were detected, and identified as internal seiches. In the eastern Portion, 3.4 hour period oscillations were detected, related to wind resonance. In alI the bay-system, the 6.0 hour period was significant, corresponding to the bay\'s natural oscillation. The study area presented a density stratification in two layers, with a single water type filling alI the portion below the 20 meters. This water, with characteristics of Subtropical Water, occupied the bottom layer due to an upwelling process produced by the dynamics of currents and winds in the continental shelf . In the two stations located off the bay, the wind and currents observations support this upwelling hypothesis.
558

"Testes de hipótese e critério bayesiano de seleção de modelos para séries temporais com raiz unitária" / "Hypothesis testing and bayesian model selection for time series with a unit root"

Silva, Ricardo Gonçalves da 23 June 2004 (has links)
A literatura referente a testes de hipótese em modelos auto-regressivos que apresentam uma possível raiz unitária é bastante vasta e engloba pesquisas oriundas de diversas áreas. Nesta dissertação, inicialmente, buscou-se realizar uma revisão dos principais resultados existentes, oriundos tanto da visão clássica quanto da bayesiana de inferência. No que concerne ao ferramental clássico, o papel do movimento browniano foi apresentado de forma detalhada, buscando-se enfatizar a sua aplicabilidade na dedução de estatísticas assintóticas para a realização dos testes de hipótese relativos à presença de uma raíz unitária. Com relação à inferência bayesiana, foi inicialmente conduzido um exame detalhado do status corrente da literatura. A seguir, foi realizado um estudo comparativo em que se testa a hipótese de raiz unitária com base na probabilidade da densidade a posteriori do parâmetro do modelo, considerando as seguintes densidades a priori: Flat, Jeffreys, Normal e Beta. A inferência foi realizada com base no algoritmo Metropolis-Hastings, usando a técnica de simulação de Monte Carlo por Cadeias de Markov (MCMC). Poder, tamanho e confiança dos testes apresentados foram computados com o uso de séries simuladas. Finalmente, foi proposto um critério bayesiano de seleção de modelos, utilizando as mesmas distribuições a priori do teste de hipótese. Ambos os procedimentos foram ilustrados com aplicações empíricas à séries temporais macroeconômicas. / Testing for unit root hypothesis in non stationary autoregressive models has been a research topic disseminated along many academic areas. As a first step for approaching this issue, this dissertation includes an extensive review highlighting the main results provided by Classical and Bayesian inferences methods. Concerning Classical approach, the role of brownian motion is discussed in a very detailed way, clearly emphasizing its application for obtaining good asymptotic statistics when we are testing for the existence of a unit root in a time series. Alternatively, for Bayesian approach, a detailed discussion is also introduced in the main text. Then, exploring an empirical façade of this dissertation, we implemented a comparative study for testing unit root based on a posteriori model's parameter density probability, taking into account the following a priori densities: Flat, Jeffreys, Normal and Beta. The inference is based on the Metropolis-Hastings algorithm and on the Monte Carlo Markov Chains (MCMC) technique. Simulated time series are used for calculating size, power and confidence intervals for the developed unit root hypothesis test. Finally, we proposed a Bayesian criterion for selecting models based on the same a priori distributions used for developing the same hypothesis tests. Obviously, both procedures are empirically illustrated through application to macroeconomic time series.
559

Benefícios do governo federal: uma análise com base na teoria dos ciclos eleitorais / Benefits of the federal government: an analysis based on the theory of electoral cycles

Pinto, Jeronymo Marcondes 15 December 2011 (has links)
A presente pesquisa visa analisar a dinâmica dos benefícios assistenciais do governo federal, buscando entender se a mesma se coaduna com a teoria dos ciclos eleitorais. Nesse sentido, foi avaliado se o número de concessões destes benefícios tenderia a crescer com a aproximação da eleições. Para atingir tal objetivo, foram utilizados dados mensais do número de concessões de três dos principais benefícios assistenciais brasileiros: o Benefício de Prestação Continuada, o Bolsa Família e o Auxílio Doença. Com base na análise das séries de tempo e dos dados em painel associados a estes últimos, foi possível detectar que a proximidade das eleições tende a afetar o número de concessões de benefícios assistenciais na maior parte dos casos analisados. Entretanto, a discussão dos resultados atingidos parece apontar no sentido de que os efeitos eleitorais encontrados não são tão somente resultados de manipulações eleitorais de políticos que visam à reeleição, mas frutos de uma dinâmica mais ampla, que seria característica de períodos eleitorais. / This research aims to analyze the dynamics of the welfare benefits of the federal government, seeking to understand whether it is consistent with the theory of electoral cycles. Accordingly, we assessed whether the number of concessions to these benefits tend to increase with the approaching elections. To achieve this, we used monthly data on the number of leases of three major Brazilian welfare benefits: the Benefício de Prestação Continuada, the Bolsa Família and Auxílio Doença. Based on the analysis of time series and panel data associated with the latter, it was possible to detect that the proximity of elections tends to affect the number of grants of welfare benefits in most cases analyzed. However, the discussion of the results indicate that the effects of elections are not solely the results of manipulations of politicians who seek reelection, but fruits of a wider dynamic that would be characteristic of elections.
560

Avaliação de desempenho do serviço de assistência móvel de urgência: uso de condição traçadora em estudo misto / Evaluation of the Performance of the mobile emergency care service: use of a tracer condition in a mixed study

Oliveira, Catia Cristina Martins de 14 February 2019 (has links)
Estudos realizados em vários países têm demonstrado a importância da atenção pré-hospitalar móvel, principalmente por atuar na redução do tempo resposta. No Brasil, essa modalidade de assistência é realizada por meio do Serviço de Atendimento Móvel de Urgência (SAMU), implantado em 2003, cujos objetivos são redução do número de óbitos, do tempo de internação e das sequelas incapacitantes provenientes de um agravo clínico ou acidente. Em que pesem os avanços alcançados ao longo de quinze anos de implementação do SAMU no país, ainda permanecem desafios importantes a serem superados. O propósito desse estudo foi avaliar o desempenho do SAMU, na Região do Grande ABC Paulista, utilizando como condição traçadora o infarto agudo do miocárdio. Trata-se de pesquisa avaliativa, exploratório-analítica, realizada por meio do método misto sequencial explanatório. Na abordagem quantitativa foi utilizado o desenho de séries temporais interrompidas, para testar efeitos imediatos e graduais da intervenção sobre a taxa de mortalidade hospitalar por infarto agudo do miocárdio. Para aumentar a validade interna do estudo foram incluídas análises com desfecho e região controles. A abordagem qualitativa foi baseada em análise documental e entrevistas semiestruturadas. O roteiro de entrevista foi desenvolvido visando aprofundar os resultados da análise de series temporais interrompidas ao explorar atitudes e valores dos entrevistados sobre o desempenho do SAMU na região. Para interpretação dos achados da pesquisa qualitativa foi empregada técnica de análise do tipo temática. A elaboração do modelo lógico do programa foi fundamental para compreender o funcionamento do SAMU na região do Grande ABC. Após a modelagem da intervenção, observou-se viabilidade metodológica e operacional para o desenvolvimento da pesquisa avaliativa. A análise de series temporais interrompidas mostrou redução de -0.04% na taxa de mortalidade, em relação a tendência subjacente, desde a implantação do SAMU (IC 95%:-0.0816; -0.0162; P-valor: 0.0040) e uma redução no nível de -2.89 (IC 95%:-4.3293;-1.4623 P-valor: 0.0001), ambos com significância estatística. Não é possível excluir confundimentos devido a outros eventos ocorridos na época da política, no entanto, para melhorar a robustez dos achados foi incluida séries de controle relevantes. Análises com desfecho controle não mostrou mudanças significativas na tendência e nível. Em relação a região controle, Baixada Santista, a diferença da tendência do desfecho, pós-intervenção, de -0.0639 mostrou-se estatisticamente significativa (IC 95%: -0.1060; -0.0219; P-valor: 0.0031). As entrevistas revelaram que o SAMU tem potencial para intervir no melhor prognóstico dos casos de infarto agudo do miocárdio que são transportados, contudo, é preciso superar desafios relacionados a garantia de leitos de referência, expansão da telemedicina e qualificação contínua das equipes da regulação e assistência. A heterogeneidade das condições sociais e econômicas dos municípios da região pode estar contribuindo para que a atenção móvel de urgência não seja equânime, apontando para a importância do processo de regionalização, visando aprimorar o fluxo assistencial e o acesso oportuno ao sistema de saúde. Os resultados sinalizam que a intervenção estudada pode ser uma condição que por si só não implica em efetividade, mas sem a qual essa mesma efetividade não teria ocorrido, sendo parte de um conjunto de condições que, agregadas, geram um resultado positivo / Studies conducted in several countries have demonstrated the importance of prehospital mobile care, mainly by acting in reducing the response time. In Brazil, this type of care is performed through the Mobile Emergency Care Service (SAMU), implemented in 2003, whose objectives are to reduce the number of deaths, length of hospital stay and disabling sequelae resulting from a clinical or accident. Regardless of the progress achieved over the fifteen years of implementation of SAMU in the country, important challenges remain to be overcome. The purpose of this study was to evaluate the performance of SAMU, in the Region of Grande ABC Paulista, using acute myocardial infarction as the tracer condition. This is an evaluative, exploratory-analytic research, carried out using the mixed sequential explanatory method. In the quantitative approach, the design of interrupted time series was used to test the immediate and gradual effects of the intervention on the hospital mortality rate due to acute myocardial infarction. In order to increase the internal validity of the study, analyzes with outcome and control regions were included. The qualitative approach was based on documentary analysis and semi-structured interviews. The interview script was developed in order to deepen the results of the analysis of interrupted time series by exploring the attitudes and values of interviewees about SAMU performance in the region. For the interpretation of the qualitative research findings, a thematic type analysis technique was used. The elaboration of the program\'s logical model was fundamental to understanding the operation of SAMU in the Grande ABC region. After the intervention modeling, methodological and operational feasibility was observed for the development of the evaluative research. The analysis of interrupted time series showed a -0.04% reduction in the mortality rate, in relation to the underlying trend, since the implantation of SAMU (95% CI: 0.0816 to -0.0162, p-value 0.0040) and a reduction in the level of -2.89 (95% CI: 4.3293, -1.4623 p-value: 0.0001), both with statistical significance. It is not possible to exclude confounding due to other events occurring at the time of the policy, however, in order to improve the robustness of the findings, relevant control series were included. Analyzes with outcome control did not show significant changes in trend and level. In relation to the control region, Baixada Santista, the difference in trend of the post-intervention outcome of -0.0639 was statistically significant (95% CI -0.1060; -0.0219; p-value: 0.0001). The interviews revealed that the SAMU has the potential to intervene in the best prognosis of the cases of acute myocardial infarction that are transported, however, it is necessary to overcome challenges related to reference bed assurance, telemedicine expansion and continuous qualification of the regulation and care teams. The heterogeneity of the social and economic conditions of the municipalities in the region may be contributing to the fact that mobile emergency care is not equitable, pointing to the importance of the regionalization process, aiming at improving the flow of care and timely access to the health system. The results indicate that the intervention studied may be a condition that in itself does not imply effectiveness, but without which this same effectiveness would not have occurred, being part of a set of conditions that, together, generate a positive result

Page generated in 0.1565 seconds