• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 253
  • 18
  • 14
  • 13
  • 13
  • 12
  • 7
  • 6
  • 6
  • 6
  • 6
  • 4
  • 4
  • 3
  • 1
  • Tagged with
  • 279
  • 279
  • 279
  • 124
  • 114
  • 93
  • 54
  • 43
  • 40
  • 40
  • 38
  • 34
  • 32
  • 32
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Modelagem computacional distribuida e paralela de sistemas e de series temporais multivariaveis no espaço de estado

Barreto, Gilmar, 1958- 01 August 2018 (has links)
Orientador : Celso Pascoli Bottura / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-01T16:06:11Z (GMT). No. of bitstreams: 1 Barreto_Gilmar_D.pdf: 3708607 bytes, checksum: 3b4291314b6c8041286e4a776d5c99f6 (MD5) Previous issue date: 2002 / Resumo: Este estudo primeiramente investiga fundamentos teóricos para análise, desenvolvimento e implementação de algoritmos para modelagem de dados de sistemas dinâmicos e de séries temporais multivariáveis no espaço de estado, através de métodos de subespaço. Tem como segundo objetivo o desenvolvimento e implementação de algoritmos para modelagem computacional distribuída e paralela destes tipos de dados multivariados. A modelagem computacional de dados no espaço de estado é apresentada, comentada e avaliada sobre "benchmarks ". Desta forma esperamos viabilizar uma metodologia original e eficiente que contribuirá de forma direta para a modelagem de sistemas multivariáveis e de formas direta e ou indireta para o controle de sistemas multivariáveis. / Abstract: This study investigates firstly theoretical foundations in analysis, development and implementation of algorithms for state space modelling of time series and dynamic systems data. The second objective is the development and implementation of parallel and distributed computational modelling algorithms for such types of multivariate data. State space computational data modelling is presented, commented upon and evaluated against benchmarks. This procedure leads to the expectation of assured feasibility of an original and efficient methodology that will contribute in a direct way to multivariable systems modelling and, both in direct and indirect ways, to the control of multivariable systems. / Doutorado
172

Construção de cenarios em ambiente SIG para avaliar mudanças de uso das terras induzidas por usinas hidreletricas na região agricola de Andradina

Santos, Marcos Antonio dos 03 August 2018 (has links)
Orientador: Rozely Ferreira dos Santos / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Agricola / Made available in DSpace on 2018-08-03T17:54:38Z (GMT). No. of bitstreams: 1 Santos_MarcosAntoniodos_M.pdf: 6750036 bytes, checksum: ade9435ac51dce17c09cb736f6e944d3 (MD5) Previous issue date: 2003 / Mestrado
173

Modelagem de dados meteorológicos da cidade do Recife utilizando a metodologia da análise de séries temporais

Rocha, João Vitaliano de Carvalho 07 July 2011 (has links)
Made available in DSpace on 2017-06-01T18:20:33Z (GMT). No. of bitstreams: 1 dissertacao_joao_vitaliano.pdf: 3830418 bytes, checksum: 070ec1571374e586d59c4da07112f8f3 (MD5) Previous issue date: 2011-07-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Models based on the statistical techniques of time series were used to identification of trends, seasonality and randomness in monthly averages of the meteorological parameters of Recife city. To analyses trends it is possible to adjust linear regression and moving averages models. Were used time series data, covering a period of nineteen years, from January 1989 to December 2009, on the average monthly temperature compensated, maximum temperature, minimum temperature, precipitation and relative humidity. Studies on regional and global climate change have drawn attention not only of the scientific community over the last decade, but also the general public. Advance knowledge of weather conditions can help society avoid wasting human and material resources, so it can adjust the schedule of activities, based on forecast demands that depend on these weather conditions. Compensated average temperature, maximum temperature, minimum temperature and rainfall showed positive trends for characterizing the city of Recife, a mild climate change, most evident in the second decade of the studied period. During the 19 year period chosen for this study, the El Nino weather event occurred 9 times causing much of the scientific community to give this phenomenon the probable liability of climate anomalies observed in recent decades / Foram utilizados modelos estatísticos com base na metodologia de análise de séries temporais. As técnicas de regressão linear e médias móveis permitiram a identificação de tendências, sazonalidade e aleatoriedade, de médias mensais de parâmetros meteorológicos da cidade do Recife, capital do Estado de Pernambuco. Foram utilizadas séries históricas, abrangendo um período de dezenove anos, de janeiro de 1989 a dezembro de 2009, relativas a valores médios mensais de temperatura compensada, temperatura máxima, temperatura mínima, precipitação e umidade relativa. Os estudos sobre mudanças climáticas globais e regionais têm chamado a atenção, não apenas da comunidade cientifica na última década, mas também do publico em geral. O conhecimento antecipado das condições climáticas pode ajudar a sociedade a evitar desperdícios de recursos humanos e materiais, de forma que se possa adequar a programação de atividades, com base na previsão de demandas que dependam dessas condições climáticas. As médias de temperatura média compensada, temperatura máxima, temperatura mínima e precipitação média apresentaram tendências positivas caracterizando para a cidade do Recife, uma discreta alteração climática, mais evidente na segunda década do período estudado. Durante os 19 anos do período escolhido para a presente pesquisa, o evento climático El Niño ocorreu 9 vezes fazendo com que boa parte da comunidade científica atribua a este fenômeno a provável responsabilidade das anomalias climáticas observadas nas últimas décadas
174

Contribuições à geração de tráfego fractal por meio da transformada wavelet. / Constributions for fractal traffic generation by wavelest transform.

Lund, Isabelle Reis 26 June 2008 (has links)
Estudos mostraram que o tráfego nas redes de dados tanto locais quanto de grande área, possui propriedades fractais como dependência de longa duração - Long-Range Dependence (LRD) e auto-similaridade. Devido à heterogeneidade de aplicações nessas redes, os traces de tráfego podem apresentar dependência de longa duração - Long Range Dependence (LRD), dependência de curta duração - Short Range Dependence (SRD) ou uma mistura de LRD com SRD. Sendo assim, este trabalho tem como objetivo sintetizar séries temporais gaussianas com flexibilidade de processamento no plano tempo-frequência a serem inseridas num gerador de tráfego com as características estatísticas específicas do tráfego encontrado em redes por comutação de pacotes reais, como autossimilaridade, LRD e SRD. Para isto foram desenvolvidos dois métodos para síntese de séries temporais gaussianas com LRD e simultânea introdução de SRD em diferentes faixas de frequência: Discrete Wavelet Tansform (DWT) com mapa de variâncias e Discrete Wavelet Packet Tansform (DWPT). Estes métodos utilizaram o mapa de variâncias cujo conceito foi desenvolvido neste trabalho. A validação dos métodos foi feita através de análise estatística e comparação com resultados de séries geradas pelo método Discrete Wavelet Transfom (DWT) de Backar utilizado em [1]. Além disso, também foi validada a ideia de que a DWPT é mais interessante que a DWT por ser mais flexível e prover uma maior flexibilidade de processamento no plano tempo-frequência. / Studies demonstrated that the data network traffic of Local Area Network (LAN) and Wide Area Network has fractal properties as long range dependence (LRD) and self-similarity. The traffic traces can show long range dependence, short range dependence or the both behaviors because of applications heterogeneity in these networks. This work objective is to synthetisize gaussian time series with processor flexibility in the time-frequency plan to be inserted in a traffic generator with the specific statistical traffic characteristics of real packet networks such as selfsimilarity, long range dependence (LRD) and short range dependence (SRD). Two methods were developed for the gaussian time series with LRD and SRD synthesis: Discrete Wavelet Tansform (DWT) with variance map and Discrete Wavelet Packet Tansform (DWPT). These methods used the variance map which concept was developed in this work. The methods validation was done by statistic analysis and comparison with the time series generated by the B¨ackar Discrete Wavelet Transfom (DWT) used by [1]. Besides of this, the idea that the DWPT is more because of its processing flexibility in the time-frequency plan was validated.
175

Plataforma de estudo para determinação de conectividade cerebral embarcada e em tempo real. / Platform of study for embedded and real time determination of brain connectivity.

Silva, Tiago Sanches da 20 April 2016 (has links)
A presente dissertação examina um método de determinação da conectividade cerebral cujo uso vem se tornando popular nos últimos anos, o partial direct coherence (PDC), que se destaca dentre outros métodos por possibilitar a verificação das relações imediatas de sinais multivariados. Este método representa a conectividade cerebral no domínio da frequência e tem íntima relação com a noção de \"causalidade\" de Granger (GRANGER, 1969), que possibilita quantificar a influência mútua entre séries temporais observadas. De um ponto de vista computacional, o referido método faz uso de modelos de séries temporais que hoje têm implementação bastante eficiente em termos de algoritmos off-line, mas cujo sucesso depende da presunção de estacionariedade dos dados, fato que é somente verdadeiro em trechos relativamente curtos de sinais de origem cerebral, como no caso do EEG (Eletroencefalograma). O objetivo deste trabalho é criar um sistema que calcule o PDC, continuamente, em tempo real e que possua a mesma precisão do método off-line, além de ser uma plataforma de estudos para implementações e testes de métodos de determinação da conectividade neural em tempo real. A plataforma desenvolvida é modular, incentivando futuros trabalhos na mesma, e mostrouse eficaz quanto a precisão numérica dos resultados do cálculo do PDC. As características de tempo real foram atingidas com algumas restrições, que dependem da configuração do usuário e do número de canais que um sinal possui. / This thesis examines a method of determination of brain connectivity whose use becomes popular in recent years, the partial direct coherence (PDC) that stands out in comparison with other methods for making possible the verification of immediate relations of multivariate signal. This method represents the brain connectivity in the frequency domain and has a close relationship with the notion of Granger causality (GRANGER, 1969) that makes it possible to quantify the mutual influence between observed time series. From a computational perspective, the above method makes use of time series models, which today has very efficient implementation in terms of off-line algorithm, but whose success depends on presume that the data is stationary, a fact that is only true in relatively short stretches of cerebral signals, especially in the case of EEG. The objective of this thesis is to create a system that calculates the PDC continuously and in real time maintaining the same precision of the off-line method. Furthermore being a research platform for implementations and tests of new methods for determining neural connectivity in real time. The developed platform is modular encouraging future work on it, and was effective in the numerical accuracy of the PDC calculation results. The real time characteristics were achieved with some restrictions that depend of the user configuration and the number of channels that the signal has.
176

Mercados coloniais: um estudo sobre a integração entre mercados latino americanos e europeus de 1650 a 1820 / Colonial markets: a study of market integration between Latin America and Europe from 1650 to 1820

Paixão, Ricardo Fernandes 27 January 2009 (has links)
Se maiores mercados permitem ganhos de especialização, conforme postulado por Adam Smith, o estudo da integração entre mercados ocupa posição central em economia. No contexto histórico tais estudos permitem inferir, a partir de evidência empírica contida em séries de preços, relacionamentos entre diversos mercados e, conseqüentemente, permitem apoiar ou refutar a narrativa histórica tradicional. Apesar do grande número de estudos históricos sobre integração de mercados entre países europeus, e, em menor grau, Estados Unidos e China, a literatura sobre integração entre mercados latino americanos e europeus durante o período colonial é praticamente inexistente. Esta tese estuda, através de técnicas de cointegração, oito produtos (açúcar, trigo, linho, papel, sabão, carne e vinho) e doze mercados (Bolívia, Brasil, Argentina, Chile, Peru, Colômbia, Inglaterra, França, Alemanha, Itália, Espanha e Portugal) ao longo de até 800 anos. O principal resultado é o fato de o mercado inglês aparecer ao centro do comércio latino americano e mesmo ibérico durante o período colonial. Este resultado suporta a narrativa histórica tradicional que enfatiza a crescente ascendência do contrabando inglês na região. Por outro lado, a evidência empírica aqui demonstrada questiona a validade do chamado pacto colonial e coloca num contexto temporal mais longo os movimentos de independência que eclodiram na região ao final do período. / If larger markets allow gains from specialization, as postulated by Adam Smith, the study of market integration occupies a central position in economics. In the historical context such studies can infer, from evidence contained in price series, relationships between various markets and, consequently, can support or refute the traditional historical narrative. Despite the large number of historical studies on market integration between European countries, and to a lesser extent, the United States and China, the literature on integration between Latin American and European markets during the colonial period is virtually nonexistent. This thesis studies, using techniques of cointegration, eight products (sugar, wheat, linen, paper, soap, meat and wine) and twelve markets (Bolivia, Brazil, Argentina, Chile, Peru, Colombia, England, France, Germany, Italy, Spain and Portugal) over up to 800 years. The main result is the fact that the English market appears to be in the center of trade in Latin America and even in the Iberian Peninsula during the colonial period. This result supports the traditional historical narrative that highlights the growing ascendancy of English smuggling in the region. Moreover, the evidence demonstrated here questions the validity of the so-called \"colonial pact\" and places the independence movements that erupted in the region at the end of the period in a longer time span.
177

Improving time series modeling by decomposing and analysing stochastic and deterministic influences / Modelagem de séries temporais por meio da decomposição e análise de influências estocásticas e determinísticas

Rios, Ricardo Araújo 22 October 2013 (has links)
This thesis presents a study on time series analysis, which was conducted based on the following hypothesis: time series influenced by additive noise can be decomposed into stochastic and deterministic components in which individual models permit obtaining a hybrid one that improves accuracy. This hypothesis was confirmed in two steps. In the first one, we developed a formal analysis using the Nyquist-Shannon sampling theorem, proving Intrinsic Mode Functions (IMFs) extracted from the Empirical Mode Decomposition (EMD) method can be combined, according to their frequency intensities, to form stochastic and deterministic components. Considering this proof, we designed two approaches to decompose time series, which were evaluated in synthetic and real-world scenarios. Experimental results confirmed the importance of decomposing time series and individually modeling the deterministic and stochastic components, proving the second part of our hypothesis. Furthermore, we noticed the individual analysis of both components plays an important role in detecting patterns and extracting implicit information from time series. In addition to these approaches, this thesis also presents two new measurements. The first one is used to evaluate the accuracy of time series modeling in forecasting observations. This measurement was motivated by the fact that existing measurements only consider the perfect match between expected and predicted values. This new measurement overcomes this issue by also analyzing the global time series behavior. The second measurement presented important results to assess the influence of the deterministic and stochastic components on time series observations, supporting the decomposition process. Finally, this thesis also presents a Systematic Literature Review, which collected important information on related work, and two new methods to produce surrogate data, which permit investigating the presence of linear and nonlinear Gaussian processes in time series, irrespective of the influence of nonstationary behavior / Esta tese apresenta um estudo sobre análise de séries temporais, a qual foi conduzida baseada na seguinte hipótese: séries temporais influenciadas por ruído aditivo podem ser decompostas em componentes estocásticos e determinísticos que ao serem modelados individualmente permitem obter um modelo híbrido de maior acurácia. Essa hipótese foi confirmada em duas etapas. Na primeira, desenvolveu-se uma análise formal usando o teorema de amostragem proposto por Nyquist-Shannon, provando que IMFs (Intrinsic Mode Functions) extraídas pelo método EMD (Empirical Mode Decomposition) podem ser combinadas de acordo com suas intensidades de frequência para formar os componentes estocásticos e determinísticos. Considerando essa prova, duas abordagens de decomposição de séries foram desenvolvidas e avaliadas em aplicações sintéticas e reais. Resultados experimentais confirmaram a importância de decompor séries temporais e modelar seus componentes estocásticos e determinísticos, provando a segunda parte da hipótese. Além disso, notou-se que a análise individual desses componentes possibilita detectar padrões e extrair importantes informações implícitas em séries temporais. Essa tese apresenta ainda duas novas medidas. A primeira é usada para avaliar a acurácia de modelos utilizados para predizer observações. A principal vantagem dessa medida em relação às existentes é a possibilidade de avaliar os valores individuais de predição e o comportamento global entre as observações preditas e experadas. A segunda medida permite avaliar a influência dos componentes estocásticos e determinísticos sobre as séries temporais. Finalmente, essa tese apresenta ainda resultados obtidos por meio de uma revisão sistemática da literatura, a qual coletou importantes trabalhos relacionados, e dois novos métodos para geração de dados substitutos, permitindo investigar a presença de processos Gaussianos lineares e não-lineares, independente da influência de comportamento não-estacionário
178

Otimização de operações de entrada e saída visando reduzir o tempo de resposta de aplicações distribuídas que manipulam grandes volumes de dados / Optimization input output operations aiming at reduce execution time of distributed applications which handle large amount of data

Ishii, Renato Porfirio 01 September 2010 (has links)
Aplicações científicas atuais têm produzido volumes de dados cada vez maiores. O processamento, a manipulação e a análise desses dados requerem infraestruturas computacionais de larga escala tais como aglomerados e grades de computadores. Nesse contexto, várias pesquisas visam o aumento de desempenho dessas aplicações por meio da otimização de acesso a dados. Para alcançar tal objetivo, pesquisadores têm utilizado técnicas de replicação, migração, distribuição e paralelismo de dados. No entanto, uma das principais lacunas dessas pesquisas está na falta de emprego de conhecimento sobre aplicações com objetivo de realizar essa otimização. Essa lacuna motivou esta tese que visa empregar comportamento histórico e preditivo de aplicações a fim de otimizar suas operações de leitura e escrita sobre dados distribuídos. Os estudos foram iniciados empregando-se informações previamente monitoradas de aplicações a fim de tomar decisões relativas à replicação, migração e manutenção de consistência. Observou-se, por meio de uma nova heurística, que um conjunto histórico de eventos auxilia a estimar o comportamento futuro de uma aplicação e otimizar seus acessos. Essa primeira abordagem requer ao menos uma execução prévia da aplicação para composição de histórico. Esse requisito pode limitar aplicações reais que apresentam mudanças comportamentais ou que necessitam de longos períodos de execução para completar seu processamento. Para superar essa limitação, uma segunda abordagem foi proposta baseada na predição on-line de eventos comportamentais de aplicações. Essa abordagem não requer a execução prévia da aplicação e permite adaptar estimativas de comportamento futuro em função de alterações adjacentes. A abordagem preditiva analisa propriedades de séries temporais com objetivo de classificar seus processos geradores. Essa classificação aponta modelos que melhor se ajustam ao comportamento das aplicações e que, portanto, permitem predições com maior acurácia. As duas abordagens propostas foram implementadas e avaliadas utilizando o simulador OptorSim, vinculado ao projeto LHC/CERN, amplamente adotado pela comunidade científica. Experimentos constataram que as duas abordagens propostas reduzem o tempo de resposta (ou execução) de aplicações que manipulam grandes volumes de dados distribuídos em aproximadamente 50% / Current scientific applications produce large amount of data and handling, processing and analyzing such data require large-scale computing infrastructure such as clusters and grids. In this context, various studies have focused at improving the performance of these applications by optimizing data access. In order to achieve this goal, researchers have employed techniques of replication, migration, distribution and parallelism of data. However, these common approaches do not use knowledge about the applications at hand to perform this optimization. This gap motivated the present thesis, which aims at applying historical and predictive behavior of applications to optimize their reading and writing operations on distributed data. Based on information previously monitored from applications to make decisions regarding replication, migration and consistency of data, a new heuristic was initially proposed. Its evaluation revealed that considering sets of historical events indeed helps to estimate the behavior of future applications and to optimize their access operations. Thus it was embedded into two optimization approaches. The first one requires at least a previous execution for the history composition. This requirement may limit real world applications which present behavioral changes or take very long time to execute. In order to overcome this issue, a second technique was proposed. It performs on-line predictions about the behavior of the applications, mitigating the need of any prior execution. Additionally, this approach considers the future behavior of an application as a function of its underlying changes. This behavior can be modeled as time series. The method works by analyzing the series properties in order to classify their generating processes. This classification indicates models that best fit the applications behavior, allowing more accurate predictions. Experiments using the OptorSim simulator (LHC/CERN project) confirmed that the proposed approaches are able to reduce the response time of applications that handle large amount of distributed data in approximately 50%
179

Previsão do consumo de energia elétrica por setores através do modelo SARMAX / Forecasting electric energy consumption by sectors with SARMAX model

Moura, Fernando Alves de 25 November 2011 (has links)
A previsão do consumo de energia elétrica do Brasil é muito importante para os órgãos reguladores do setor. Uma série de metodologias têm sido utilizadas para a projeção desse consumo. Destacam-se os modelos de regressão com dados em painel, modelos de cointegração e defasagem distribuída, modelos estruturais de séries temporais e modelos de Box & Jenkins de séries temporais, dentre outros. Neste trabalho estimar-se um modelo de previsão do consumo comercial, industrial e residencial de energia brasileiro por meio de modelos SARMAX. Nesses modelos o consumo de energia pode ser estimado por meio de uma regressão linear múltipla considerando diversas variáveis macroeconômicas como variáveis explicativas. Os resíduos desse modelo são explicados por meio de um modelo de Box & Jenkins. Neste estudo realiza-se uma pesquisa bibliográfica sobre fatores que influenciam no consumo de energia elétrica e levantam-se variáveis proxies para prever este consumo no Brasil. Utiliza-se uma base de dados mensal no período entre Janeiro de 2003 e Setembro de 2010 para construção de cada um dos três modelos de previsão citados. Utilizase uma amostra de validação de Outubro de 2010 até Fevereiro de 2011. Realiza-se a avaliação dos modelos estimados em termos de adequação às premissas teóricas e ao desempenho nas medidas de acurácia MAPE, RMSE e coeficiente de determinação ajustado. Os modelos estimados para o consumo de energia elétrica dos setores comercial, industrial e residencial obtêm um MAPE de 2,05%, 1,09% e 1,27%; um RMSE de 144,13, 185,54 e 158,40; e um coeficiente de determinação ajustado de 95,91%, 93,98% e 96,03% respectivamente. Todos os modelos estimados atendem os pressupostos de normalidade, ausência de autocorrelação serial e ausência de heterocedasticidade condicionada dos resíduos. Os resultados confirmaram a viabilidade da utilização das variáveis macroeconômicas testadas para estimar o consumo de energia elétrica por setores e a viabilidade da metodologia para a previsão destas séries na amostra de dados selecionada. / The prediction of electricity consumption in Brazil is very important to the industry regulators. A number of methodologies have been used for the projection of this consumption. Noteworthy are the regression models with data in panel, co-integration and distributed lag models, time series structural models and Box & Jenkins time series models among others. In this work we intend to estimate a forecasting model of the Brazilian commercial, industrial and residential consumption of energy by means of SARMAX models. In these models the power consumption can be estimated by a multiple linear regression considering various macro-economic variables as explanatory variables. The residues of this model are explained by a Box & Jenkins model. In this study it is carried out a bibliographic research on factors that influence energy consumption and proxy variables are risen to predict the consumption in Brazil. The consumption of electricity is estimated for the commercial, industrial and residential sectors. It is used a monthly data base over the period between January 2003 and September 2010 for the construction of each of the three prediction models mentioned. It is used a validation sample from October 2010 to February 2011. It is carried out the assessment of the estimated models in terms of compliance with the theoretical premises and the performance on measures of accuracy MAPE, RMSE and adjusted determinant coefficient. The estimated models for the energy consumption of commercial, industrial and residential sectors obtain a MAPE of 2.05%, 1.09% and 1.27%; a RMSE of 144.13, 185.54 and 158.40; and a adjusted determinant coefficient of 95.91%, 93.98% and 96.03% respectively. All estimated models satisfy the assumptions of normality, absence of serial autocorrelation and absence of conditioned heteroscedasticity of the residues. The results confirmed the viability of the usage of the macroeconomic variables tested to estimate the energy consumption by sector and the viability of the methodology for the prediction of these series in the selected data sample.
180

Processamento de perfis metabólicos / Metabolic profiles processing

Vilela, Marco Antônio 26 March 2007 (has links)
Made available in DSpace on 2015-03-04T18:50:48Z (GMT). No. of bitstreams: 1 marcovilela.pdf: 1029491 bytes, checksum: 1fca2ef79139cc03706b7b62c5e682e5 (MD5) Previous issue date: 2007-03-26 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / During the past 30-years, Biochemical System Theory (BST) has been provided a concrete foundation for the study of the dynamic biological systems, e.g. S-systems models for reverse engineering of metabolic networks (Savageau, 1969; Savageau, 1970; Voit, 2000). One of the remarkable characteristics of these models is its parameters not only quantify the interactions between the components of the network, but also elucidate the network s topology. Automatic procedures for S-system parameterization from biological time series have been developed by many researches, where they assume a noise-free time series and a true estimated first derivative in their methodologies (Chou, et al., 2006; Kikuchi, et al., 2003). Nevertheless, this noise-free data is not a realistic scenario of the real biological experimental world. Methods as artificial neural network (ANN), Support Vectors Machines (SVM) and Saviztsky-Golay filter were proposed to overcome the denoising time series problem with the advantage of a closed form output which allowed determining the first derivative symbolically (Almeida and Voit, 2003; Borges, et al., 2006; Borges, et al., 2004; Voit and Almeida, 2004). However, these solutions showed some problematic artifacts in its first derivative even when they are not visually apparent in the smoothed data, leaving a gap on the issue of a fully automatic method for S-system parameterization from experimental data. The algorithm presented in this work is a proposal to fill this gap up providing an unbiased robust tool for signal extraction and first derivative estimation from noisy time series. / Nos últimos 30 anos, a Teoria dos Sistemas Bioquímicos (Biochemical System Theory - BST) tem fornecido uma fundação concreta para o estudo da dinâmica de sistemas biológicos, por exemplo, Sistemas-S (S-systems) usados em engenharia reversa de vias metabólicas (Savageau, 1969; Savageau, 1970; Voit, 2000). Uma característica marcante desse tipo de modelo é que os parâmetros não só quantificam as interações entres os componentes da rede metabólica, mas também fornecem a sua topologia de regulação. Procedimentos automáticos para a parametrização dos Sistemas-S a partir de séries temporais biológicas vêm sendo desenvolvidos por vários pesquisadores, onde se assume que a série temporal e sua derivada temporal são livres de ruído. Entretando, perfis metabólicos livres de ruído não são um realistas em cenários de experimentos de biologia molecular. Técnicas como Redes Neurais Artificiais (RNA), Máquinas de Vetores de Suporte (MVP) e filtro de Saviztsky-Golay foram propostas como solução do problema de suavização dos perfis metabólicos com a vantagem da obtenção da derivada temporal simbólica (Almeida and Voit, 2003; Borges, et al., 2006; Borges, et al., 2004; Voit and Almeida, 2004). Entretanto, essas soluções apresentaram alguns artefatos problemáticos na derivada até mesmo quando nenhum problema é visualmente detectado no dado suavizado, deixando aberto um espaço vazio na questão de um método automático para a parametrização dos Sistemas-S a partir de dados experimentais. O algoritmo apresentado neste trabalho propõe preencher esse espaço com uma ferramenta robusta para a extração de sinal e de sua derivada temporal a partir de séries temporais ruidosas.

Page generated in 0.1003 seconds