Spelling suggestions: "subject:"cmpirical models"" "subject:"7empirical models""
11 |
An evaluation of coverage models for LoRaPaulsson, Felix, Bitar, Issa January 2021 (has links)
LoRaWAN is a wireless network technology based on the LoRa modulation technology. When planning such a network, it is important to estimate the network’s coverage, which can be done by calculating path loss. To do this, one can utilize empirical models of radio wave propagation. Previous research has investigated the accuracy of such empirical models for LoRa inside cities. However, as the accuracy of these models is heavily dependent on the exact characteristics of the environment, it is of interest to validate these results. In addition, the effect of base station elevation on the models’ accuracy has yet to be researched. Following the problems stated above, the purpose of this study is to investigate the accuracy of empirical models of radio wave propagation for LoRa in an urban environment. More specifically, we investigate the accuracy of the models and the effect of base station elevation on the models’ accuracy. The latter is the main contribution of this study. To perform these investigations, a quantitative experiment was conducted in the city of Jönköping, Sweden. In the experiment a base station was positioned at elevations of 30, 23, and 15m. The path loss was measured from 20 locations around the base station for each level of elevation. The measured path loss was then compared to predictions from three popular empirical models: the Okumura-Hata model, the COST 231-Walfisch-Ikegami model, and the 3GPP UMa NLOS model. Our analysis showed a clear underestimation of the path loss for all models. We conclude that for an environment and setup similar to ours, models underestimate the path loss by approximately 20dB. They can be improved by adding a constant correction value, resulting in a mean absolute error of at least 3,7-5,6dB. We also conclude that the effect of base station elevation varies greatly between different models. The 3GPP model underestimated the path loss equally for all elevations and could therefore easily be improved by a constant correction value. This resulted in a mean absolute error of approximately 4dB for all elevations.
|
12 |
Dinâmica das corridas de detritos no Litoral Norte de São Paulo / Dynamics of debris flow in the north coast of São PauloNery, Tulius Dias 10 December 2015 (has links)
As corridas de detritos são processos caracterizados por escoamentos rápidos associados a precipitações intensas e/ou acumuladas. A ocorrência destes processos está associada a diversas variáveis do meio físico e quando associadas a eventos extremos de precipitação podem gerar grande volume de sedimentos como aqueles observados em 1967 no município de Caraguatatuba (SP). Neste contexto, o objetivo desta pesquisa foi avaliar o potencial de geração de corridas de detritos a partir do emprego de parâmetros morfométricos para as bacias hidrográficas dos rios Santo Antônio, Guaxinduba e Mococa. Metodologicamente, o trabalho dividiu-se, em um primeiro momento, na identificação dos escorregamentos e das zonas de arraste e deposição das corridas de detritos. Posteriormente, foram extraídos os parâmetros e os índices morfométricos das bacias (área, amplitude, comprimento do canal, ângulo da encosta, índice de circularidade, densidade de drenagem e declividade média do canal), e analisados de forma qualitativa e quantitativa. A partir do reconhecimento dos processos foram selecionadas as sub-bacias para a aplicação de dois modelos empíricos considerando os valores de concentração de sólidos e de precipitação. Assim, por meio dos cenários propostos de 60 mm/h e 100 mm/h e concentração de sólidos de 50% foram obtidos os valores de vazão e de volume de sedimentos das corridas de detritos para cada sub-bacia selecionada. Os resultados obtidos na análise qualitativa mostraram similaridades entre as bacias dos rios Santo Antônio e Mococa, fato este não observado para a bacia do Guaxinduba. No entanto, a bacia do Guaxinduba apresentou maior potencial para a geração de corridas de detritos. Em 40 sub-bacias, observou-se que houve diferença de aproximadamente 60% da vazão e volume em relação aos cenários de 60 mm/h e 100 mm/h. Além disso, observou-se nas formulações empregadas que a inserção de variáveis geram valores distintos de vazão de pico e volume de sedimentos. Identificou-se que a bacia do Guaxinduba apresentou maior potência, porém com volumes inferiores aos observados nas bacias do Santo Antônio e Mococa. Acredita-se que a combinação destes métodos pode auxiliar na identificação de áreas suscetíveis à ocorrência das corridas de detritos em regiões serranas, como o Litoral Norte de São Paulo. / Debris flow processes are characterized by rapid runoff associated with heavy and/or accumulated rainfall. The occurrence of these processes is associated with several variables of the physical environment and when associated with extreme precipitation events can generate large amounts of sediment as those observed in 1967 in the city of Caraguatatuba (SP). In this context, the objective of this research was to evaluate the potential of generating debris flow from the use of morphometric parameters for the river basins of the Santo Antonio, Guaxinduba and Mococa. Methodologically, the work was divided, at first, the identification of landslides and areas of deposition of debris flow. Subsequently, the parameters and morphometric indices of the basins were extracted (area, basin relief, channel length, slope angle, circularity ratio, drainage density and average channel slope), and analyzed qualitatively and quantitatively. Based the recognition of the processes the sub-basins to the application of two empirical models considering the solid concentration values and precipitation were selected. Thus by the proposed scenarios of 60 mm / h and 100 mm/h solids concentration of 50% were obtained the values of peak discharges and magnitude of debris flow for each selected sub-basin. The results of the qualitative analysis showed similitarities between the rivers basins of the Santo Antônio and Mococa, which is not observed for the basin Guaxinduba. However, the basin Guaxinduba showed greater potential for the generation of debris flow. In sub-basin 40, it was observed that there was a difference of approximately 60% of peak discharges and magnitude in relation to the scenarios of 60 mm/h and 100 mm/h. Furthermore, it was observed that the formulations employed in the insertion variables generate different peak and magnitude values of sediment. It was identified that the Guaxinduba basin showed a higher power, but with magnitude lower than those observed in the basins of Santo Antônio and Mococa. It is believed that the combination of these methods can help identify areas susceptible to the occurrence of debris flow in mountainous regions such as the North Coast of São Paulo.
|
13 |
Semi-empirical Probability Distributions and Their Application in Wave-Structure Interaction ProblemsIzadparast, Amir Hossein 2010 December 1900 (has links)
In this study, the semi-empirical approach is introduced to accurately estimate
the probability distribution of complex non-linear random variables in the field of wavestructure
interaction. The structural form of the semi-empirical distribution is developed
based on a mathematical representation of the process and the model parameters are
estimated directly from utilization of the sample data. Here, three probability
distributions are developed based on the quadratic transformation of the linear random
variable. Assuming that the linear process follows a standard Gaussian distribution, the
three-parameter Gaussian-Stokes model is derived for the second-order variables.
Similarly, the three-parameter Rayleigh-Stokes model and the four-parameter Weibull-
Stokes model are derived for the crests, troughs, and heights of non-linear process
assuming that the linear variable has a Rayleigh distribution or a Weibull distribution.
The model parameters are empirically estimated with the application of the conventional
method of moments and the newer method of L-moments. Furthermore, the application
of semi-empirical models in extreme analysis and estimation of extreme statistics is discussed. As a main part of this research study, the sensitivity of the model statistics to
the variability of the model parameters as well as the variability in the samples is
evaluated. In addition, the sample size effects on the performance of parameter
estimation methods are studied.
Utilizing illustrative examples, the application of semi-empirical probability
distributions in the estimation of probability distribution of non-linear random variables
is studied. The examples focused on the probability distribution of: wave elevations and
wave crests of ocean waves and waves in the area close to an offshore structure, wave
run-up over the vertical columns of an offshore structure, and ocean wave power
resources. In each example, the performance of the semi-empirical model is compared
with appropriate theoretical and empirical distribution models. It is observed that the
semi-empirical models are successful in capturing the probability distribution of
complex non-linear variables. The semi-empirical models are more flexible than the
theoretical models in capturing the probability distribution of data and the models are
generally more robust than the commonly used empirical models.
|
14 |
Técnicas de análise multivariável aplicadas ao desenvolvimento de analisadores virtuaisFacchin, Samuel January 2005 (has links)
A construção de um analisador virtual é sustentada basicamente por três pilares: o modelo, as variáveis que integram o modelo e a estratégia de correção/atualização do modelo. Os modelos matemáticos são classificados quanto ao nível de conhecimento do processo contido nele, indo de modelos complexos baseados em relações fundamentais e leis físico-químicas, denominados white-box, até modelos obtidos através de técnicas de análise multivariável, como técnicas de regressão multiváriavel e redes neurais, referenciados como black box. O presente trabalho objetiva uma análise de dois dos pilares: os modelos, focando em modelos obtidos através das técnicas de redução de dimensionalidade do tipo PLS, e metodologias de seleção de variáveis para a construção dessa classe de modelos. Primeiramente é realizada uma revisão das principais variantes lineares e não lineares da metodologia PLS, compreendendo desde o seu desenvolvimento até a sua combinação com redes neurais. Posteriormente são apresentadas algumas das técnicas popularmente utilizadas para a seleção de variáveis em modelos do tipo black-box, técnicas de validação cruzada e técnicas de seleção de dados para calibração e validação de modelos. São propostas novas abordagens para os procedimentos de seleção de variáveis, originadas da combinação das técnicas de seleção de dados com duas metodologias de seleção de variáveis. Os resultados produzidos por essas novas abordagens são comparados com o método clássico através de casos lineares e não lineares. A viabilidade das técnicas analisadas e desenvolvidas é verificada através da aplicação das mesmas no desenvolvimento de um analisador virtual para uma coluna de destilação simulada através do simulador dinâmico Aspen Dynamics®. Por fim são apresentadas as etapas e desafios da implementação de um analisador virtual baseados em técnicas PLS em uma Torre Depropanizadora de uma central de matérias primas de um pólo petroquímico. / The construction of a virtual analyzer is sustained basically by three pillars: the model, the variables that integrate the model and the updating strategy of the model. The mathematical models are classified with relationship at the level of the process knowledge within it, going from complex models, based on fundamental relationships and physical-chemistries laws, called white-box, until models obtained through multivariable analysis techniques, as multiple linear regression and neural networks, also called as black box. The focus of the present work is the analysis of two of the pillars: the models, specially the ones obtained by dimension reduction techniques, like PLS, and methodologies used in the development of this class of models. Initially, a revision of the main linear and non linear variants of the PLS methodology is done, embracing since its development to its combination with neural networks. Later on, some popularly variables selection techniques for black-box models are explained, as well as some cross validation techniques and strategies for data selection for calibration and validation of models. New approaches for variables selection procedures are proposed, originated by the combination of data selection strategies and two variables selection techniques. The results produced by those new approaches are compared with the classic method through linear and non linear case studies. The viability of the analyzed and developed techniques is verified through the application of the same ones in the development of a virtual analyzer for a distillation column, simulated by the dynamic simulator Aspen Dynamics®. The steps and challenges faced in the implementation of a virtual analyzer based on PLS technical for a Depropanizer Unit are finally presented.
|
15 |
Irradiação solar global com diferentes modelos para Alagoas / Global irradiation with different models for AlagoasSantos, Cicero Manoel dos 24 February 2012 (has links)
The global solar irradiation (Hg) is variable major in several subject areas: Agriculture, Engineering, Climate and Renewable Energy. The total amount of incident Hg on the earth's surface can be accounted directly or indirectly. Directly is obtained from measurements made with operational instruments (pyranometers) and indirectly by estimating, by using empirical models. In this work, ten empirical models are used (nine based on air temperature and one in the sunshine duration) to estimate the global solar irradiation in eight sites from to Alagoas - Brazil, in scale hourly, daily and monthly. For models based on air temperature, two temperature regimes (air thermal amplitudes) (∆T1 and ∆T2) were evaluated to verify the influence on the models. Have been used air temperature, sunshine duration (n) and global solar irradiation (Hg) data, from September 2007 to December 2008 for fit of the models, and to validate the use data in 2009. The global solar irradiations (Hg) (MJm-2) were calculated from the integrations of the global solar irradiance (Rg) (Wm-2). In terms of global solar irradiation hourly average monthly (Hgh), the coefficients of the models shown to be dependent on the study site. The coefficients generated with daily data and monthly averages showed no difference to ΔT1 or ΔT2. For the model based on the sunshine duration (n), the adjusted coefficients are specifics to the estimated daily and monthly. In estimating hourly, the Hargreaves & Samani model (model 6) and the modified Hargreaves & Samani (models 7, 8 and 9) estimated the best monthly hourly global solar irradiation average (Hgh) in all sites analyzed. In the daily estimate, the Bristow & Campbell model (model 1) was more accurate than the model 6. However, the model 6 resulted with an average value of the population standard deviation of deviations (dpp) of 2,60, 2,79 and 2,79 MJm-2 for sites in the regions of the interior (Sertão), Hinterland (Agreste) and Coastal (Litoral) / Humid Area (Zona da Mata), respectively. Each month, the model 1 was more accurate than the model 6. The model based on the sunshine duration estimated the best daily global solar irradiation (Hgd) and monthly daily global solar irradiation average (Hgm), those based on air temperature, indicating low (dpp) and high coefficients of agreement (d). / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A irradiação solar global (Hg) é variável de grande importância em diversas áreas do conhecimento: Agricultura, Engenharia, Climatologia e Energia Renováveis. A quantidade total de Hg que incide na superfície terrestre pode ser contabilizada diretamente ou indiretamente. Diretamente é obtida a partir de medidas realizadas com instrumentos operacionais (piranômetros) e indiretamente por estimativa, em geral, utilizando-se modelos empíricos. Nesse trabalho, foram utilizados dez modelos empíricos (nove baseados na temperatura do ar e um na duração do brilho solar) para estimar a irradiação solar global em oito locais de Alagoas - Brasil, em escala horária, diária e mensal. Para os modelos baseados na temperatura do ar, dois regimes (amplitudes térmicas do ar) de temperatura (∆T1 e ∆T2) foram avaliados para verificar a influencia deles nos modelos. Foram utilizados dados de temperatura do ar, duração do brilho solar (n) e irradiação solar global (Hg), no período de setembro de 2007 a dezembro de 2008 para ajuste dos modelos, e para validação a utilização de dados de 2009. As irradiações solar global (Hg) (MJm-2) foram calculadas a partir das integrações das irradiâncias solar global (Rg) (Wm-2). Em termo da irradiação solar global média horária mensal (Hgh), os coeficientes dos modelos mostraram ser dependentes do local de estudo. Os coeficientes gerados com dados diários e médias mensais não mostraram diferença para ∆T1 ou ∆T2. Para o modelo baseado na duração do brilho solar (n), os coeficientes ajustados são específicos para a estimativa diária e mensal. Na estimativa horária, o modelo de Hargreaves & Samani (modelo 6) e os modificados de Hargreaves & Samani (modelos 7, 8 e 9) estimaram melhor a irradiação solar global média horária mensal (Hgh), em todos locais analisados. Na estimativa diária, o modelo de Bristow & Campbell (modelo 1) foi mais preciso que o modelo 6. Porém, o modelo 6 resultou com valor médio do desvio padrão da população de desvios (dpp) de 2,60, 2,79 e 2,79 MJm-2 para os locais situados no Sertão, Agreste e Litoral/Zona da Mata, respectivamente. Mensalmente, o modelo 1 foi mais preciso que o modelo 6. O modelo baseado na duração do brilho solar estimou melhor a irradiação solar global diária (Hgd) e a irradiação solar global média diária mensal (Hgm), que os baseados na temperatura do ar, indicando baixos (dpp) e elevados coeficientes de concordâncias (d).
|
16 |
Técnicas de análise multivariável aplicadas ao desenvolvimento de analisadores virtuaisFacchin, Samuel January 2005 (has links)
A construção de um analisador virtual é sustentada basicamente por três pilares: o modelo, as variáveis que integram o modelo e a estratégia de correção/atualização do modelo. Os modelos matemáticos são classificados quanto ao nível de conhecimento do processo contido nele, indo de modelos complexos baseados em relações fundamentais e leis físico-químicas, denominados white-box, até modelos obtidos através de técnicas de análise multivariável, como técnicas de regressão multiváriavel e redes neurais, referenciados como black box. O presente trabalho objetiva uma análise de dois dos pilares: os modelos, focando em modelos obtidos através das técnicas de redução de dimensionalidade do tipo PLS, e metodologias de seleção de variáveis para a construção dessa classe de modelos. Primeiramente é realizada uma revisão das principais variantes lineares e não lineares da metodologia PLS, compreendendo desde o seu desenvolvimento até a sua combinação com redes neurais. Posteriormente são apresentadas algumas das técnicas popularmente utilizadas para a seleção de variáveis em modelos do tipo black-box, técnicas de validação cruzada e técnicas de seleção de dados para calibração e validação de modelos. São propostas novas abordagens para os procedimentos de seleção de variáveis, originadas da combinação das técnicas de seleção de dados com duas metodologias de seleção de variáveis. Os resultados produzidos por essas novas abordagens são comparados com o método clássico através de casos lineares e não lineares. A viabilidade das técnicas analisadas e desenvolvidas é verificada através da aplicação das mesmas no desenvolvimento de um analisador virtual para uma coluna de destilação simulada através do simulador dinâmico Aspen Dynamics®. Por fim são apresentadas as etapas e desafios da implementação de um analisador virtual baseados em técnicas PLS em uma Torre Depropanizadora de uma central de matérias primas de um pólo petroquímico. / The construction of a virtual analyzer is sustained basically by three pillars: the model, the variables that integrate the model and the updating strategy of the model. The mathematical models are classified with relationship at the level of the process knowledge within it, going from complex models, based on fundamental relationships and physical-chemistries laws, called white-box, until models obtained through multivariable analysis techniques, as multiple linear regression and neural networks, also called as black box. The focus of the present work is the analysis of two of the pillars: the models, specially the ones obtained by dimension reduction techniques, like PLS, and methodologies used in the development of this class of models. Initially, a revision of the main linear and non linear variants of the PLS methodology is done, embracing since its development to its combination with neural networks. Later on, some popularly variables selection techniques for black-box models are explained, as well as some cross validation techniques and strategies for data selection for calibration and validation of models. New approaches for variables selection procedures are proposed, originated by the combination of data selection strategies and two variables selection techniques. The results produced by those new approaches are compared with the classic method through linear and non linear case studies. The viability of the analyzed and developed techniques is verified through the application of the same ones in the development of a virtual analyzer for a distillation column, simulated by the dynamic simulator Aspen Dynamics®. The steps and challenges faced in the implementation of a virtual analyzer based on PLS technical for a Depropanizer Unit are finally presented.
|
17 |
Dinâmica das corridas de detritos no Litoral Norte de São Paulo / Dynamics of debris flow in the north coast of São PauloTulius Dias Nery 10 December 2015 (has links)
As corridas de detritos são processos caracterizados por escoamentos rápidos associados a precipitações intensas e/ou acumuladas. A ocorrência destes processos está associada a diversas variáveis do meio físico e quando associadas a eventos extremos de precipitação podem gerar grande volume de sedimentos como aqueles observados em 1967 no município de Caraguatatuba (SP). Neste contexto, o objetivo desta pesquisa foi avaliar o potencial de geração de corridas de detritos a partir do emprego de parâmetros morfométricos para as bacias hidrográficas dos rios Santo Antônio, Guaxinduba e Mococa. Metodologicamente, o trabalho dividiu-se, em um primeiro momento, na identificação dos escorregamentos e das zonas de arraste e deposição das corridas de detritos. Posteriormente, foram extraídos os parâmetros e os índices morfométricos das bacias (área, amplitude, comprimento do canal, ângulo da encosta, índice de circularidade, densidade de drenagem e declividade média do canal), e analisados de forma qualitativa e quantitativa. A partir do reconhecimento dos processos foram selecionadas as sub-bacias para a aplicação de dois modelos empíricos considerando os valores de concentração de sólidos e de precipitação. Assim, por meio dos cenários propostos de 60 mm/h e 100 mm/h e concentração de sólidos de 50% foram obtidos os valores de vazão e de volume de sedimentos das corridas de detritos para cada sub-bacia selecionada. Os resultados obtidos na análise qualitativa mostraram similaridades entre as bacias dos rios Santo Antônio e Mococa, fato este não observado para a bacia do Guaxinduba. No entanto, a bacia do Guaxinduba apresentou maior potencial para a geração de corridas de detritos. Em 40 sub-bacias, observou-se que houve diferença de aproximadamente 60% da vazão e volume em relação aos cenários de 60 mm/h e 100 mm/h. Além disso, observou-se nas formulações empregadas que a inserção de variáveis geram valores distintos de vazão de pico e volume de sedimentos. Identificou-se que a bacia do Guaxinduba apresentou maior potência, porém com volumes inferiores aos observados nas bacias do Santo Antônio e Mococa. Acredita-se que a combinação destes métodos pode auxiliar na identificação de áreas suscetíveis à ocorrência das corridas de detritos em regiões serranas, como o Litoral Norte de São Paulo. / Debris flow processes are characterized by rapid runoff associated with heavy and/or accumulated rainfall. The occurrence of these processes is associated with several variables of the physical environment and when associated with extreme precipitation events can generate large amounts of sediment as those observed in 1967 in the city of Caraguatatuba (SP). In this context, the objective of this research was to evaluate the potential of generating debris flow from the use of morphometric parameters for the river basins of the Santo Antonio, Guaxinduba and Mococa. Methodologically, the work was divided, at first, the identification of landslides and areas of deposition of debris flow. Subsequently, the parameters and morphometric indices of the basins were extracted (area, basin relief, channel length, slope angle, circularity ratio, drainage density and average channel slope), and analyzed qualitatively and quantitatively. Based the recognition of the processes the sub-basins to the application of two empirical models considering the solid concentration values and precipitation were selected. Thus by the proposed scenarios of 60 mm / h and 100 mm/h solids concentration of 50% were obtained the values of peak discharges and magnitude of debris flow for each selected sub-basin. The results of the qualitative analysis showed similitarities between the rivers basins of the Santo Antônio and Mococa, which is not observed for the basin Guaxinduba. However, the basin Guaxinduba showed greater potential for the generation of debris flow. In sub-basin 40, it was observed that there was a difference of approximately 60% of peak discharges and magnitude in relation to the scenarios of 60 mm/h and 100 mm/h. Furthermore, it was observed that the formulations employed in the insertion variables generate different peak and magnitude values of sediment. It was identified that the Guaxinduba basin showed a higher power, but with magnitude lower than those observed in the basins of Santo Antônio and Mococa. It is believed that the combination of these methods can help identify areas susceptible to the occurrence of debris flow in mountainous regions such as the North Coast of São Paulo.
|
18 |
Técnicas de análise multivariável aplicadas ao desenvolvimento de analisadores virtuaisFacchin, Samuel January 2005 (has links)
A construção de um analisador virtual é sustentada basicamente por três pilares: o modelo, as variáveis que integram o modelo e a estratégia de correção/atualização do modelo. Os modelos matemáticos são classificados quanto ao nível de conhecimento do processo contido nele, indo de modelos complexos baseados em relações fundamentais e leis físico-químicas, denominados white-box, até modelos obtidos através de técnicas de análise multivariável, como técnicas de regressão multiváriavel e redes neurais, referenciados como black box. O presente trabalho objetiva uma análise de dois dos pilares: os modelos, focando em modelos obtidos através das técnicas de redução de dimensionalidade do tipo PLS, e metodologias de seleção de variáveis para a construção dessa classe de modelos. Primeiramente é realizada uma revisão das principais variantes lineares e não lineares da metodologia PLS, compreendendo desde o seu desenvolvimento até a sua combinação com redes neurais. Posteriormente são apresentadas algumas das técnicas popularmente utilizadas para a seleção de variáveis em modelos do tipo black-box, técnicas de validação cruzada e técnicas de seleção de dados para calibração e validação de modelos. São propostas novas abordagens para os procedimentos de seleção de variáveis, originadas da combinação das técnicas de seleção de dados com duas metodologias de seleção de variáveis. Os resultados produzidos por essas novas abordagens são comparados com o método clássico através de casos lineares e não lineares. A viabilidade das técnicas analisadas e desenvolvidas é verificada através da aplicação das mesmas no desenvolvimento de um analisador virtual para uma coluna de destilação simulada através do simulador dinâmico Aspen Dynamics®. Por fim são apresentadas as etapas e desafios da implementação de um analisador virtual baseados em técnicas PLS em uma Torre Depropanizadora de uma central de matérias primas de um pólo petroquímico. / The construction of a virtual analyzer is sustained basically by three pillars: the model, the variables that integrate the model and the updating strategy of the model. The mathematical models are classified with relationship at the level of the process knowledge within it, going from complex models, based on fundamental relationships and physical-chemistries laws, called white-box, until models obtained through multivariable analysis techniques, as multiple linear regression and neural networks, also called as black box. The focus of the present work is the analysis of two of the pillars: the models, specially the ones obtained by dimension reduction techniques, like PLS, and methodologies used in the development of this class of models. Initially, a revision of the main linear and non linear variants of the PLS methodology is done, embracing since its development to its combination with neural networks. Later on, some popularly variables selection techniques for black-box models are explained, as well as some cross validation techniques and strategies for data selection for calibration and validation of models. New approaches for variables selection procedures are proposed, originated by the combination of data selection strategies and two variables selection techniques. The results produced by those new approaches are compared with the classic method through linear and non linear case studies. The viability of the analyzed and developed techniques is verified through the application of the same ones in the development of a virtual analyzer for a distillation column, simulated by the dynamic simulator Aspen Dynamics®. The steps and challenges faced in the implementation of a virtual analyzer based on PLS technical for a Depropanizer Unit are finally presented.
|
19 |
A Bayesian Inference/Maximum Entropy Approach for Optimization and Validation of Empirical Molecular ModelsRaddi, Robert, 0000-0001-7139-5028 05 1900 (has links)
Accurate modeling of structural ensembles is essential for understanding molecular function, predicting molecular interactions, refining molecular potentials, protein engineering, drug discovery, and more. Here, we enhance molecular modeling through Bayesian Inference of Conformational Populations (BICePs), a highly versatile algorithm for reweighting simulated ensembles with experimental data. By incorporating replica-averaging, improved likelihood functions to better address systematic errors, and adopting variational optimization schemes, the utility of this algorithm in the refinement and validation of both structural ensembles and empirical models is unmatched. Utilizing a set of diverse experimental measurements, including NOE distances, chemical shifts, and vicinal J-coupling constants, we evaluated nine force fields for simulating the mini-protein chignolin, highlighting BICePs’ capability to correctly identify folded conformations and perform objective model selection. Additionally, we demonstrate how BICePs automates the parameterization of molecular potentials and forward models—computational frameworks that generate observable quantities—while properly accounting for all sources of random and systematic error. By reconciling prior knowledge of structural ensembles with solution-based experimental observations, BICePs not only offers a robust approach for evaluating the predictive accuracy of molecular models but also shows significant promise for future applications in computational chemistry and biophysics. / Chemistry
|
20 |
[en] STUDY OF PROPPED MATERIAL OF FRACTURES STIMULATED BY HYDRAULIC FRACTURING IN OIL WELLS / [pt] ESTUDO DA ESTABILIDADE DO MATERIAL DE SUSTENTAÇÃO DE FRATURAS ESTIMULADAS HIDRAULICAMENTE EM POÇOS DE PETRÓLEOLILIANE TOJEIRA VELOZO 24 July 2006 (has links)
[pt] A viabilidade da exploração de um campo petrolífero está
associada às
características produtivas da formação, obtidas mediante o
desenvolvimento e a
aplicação de técnicas capazes de aumentar a economicidade
dos poços. A
técnica de estimulação mais utilizada atualmente é o
fraturamento hidráulico,
que tem como uma das etapas principais a injeção de um
material granular,
denominado de propante, para a manutenção da abertura da
fratura. Tal técnica
tem como obstáculo o refluxo do propante para o interior
do poço (proppant
flowback), ocasionando diversos problemas que podem levar
à interrupção da
produção do mesmo. Alguns modelos teóricos e empíricos
foram desenvolvidos
para a previsão desse fenômeno, mas os mecanismos que o
governam não são
ainda claramente explicados. Alguns fatores que
influenciam na produção de
propante são largura da fratura, tensão de fechamento,
gradiente hidráulico e
características do propante. O refluxo de propante não é
considerado nos
procedimentos atuais de projeto de fraturamento
hidráulico. Nessa dissertação
de mestrado foi desenvolvida uma ferramenta computacional
com uma
arquitetura orientada a objeto, em linguagem de
programação Java, para a
análise de estabilidade do propante no interior da fratura
com base em modelos
empíricos e teóricos. Além disso, foi investigada a
influência da inclusão de
restrições no projeto de fraturamento de modo a prevenir o
fenômeno. Busca-se,
desse modo, a obtenção de melhores projetos de
fraturamento hidráulicos com
prevenção do refluxo de propante, garantindo a
produtividade do poço e
prolongando sua vida útil. / [en] The viability of the exploration of an oil field is
associated with the
productive characteristics of the formation, guaranteed by
means of the
development and application of techniques capable of
increasing the productivity
and the economy of the oil fields. The currently most used
stimulation technique
is hydraulic fracturing, by which one of the main stages
is the injection of a
granular material called proppant to keep the fracture
open and enhance fracture
permeability. This technique presents as a drawback the
phenomenon known as
proppant flowback. The proppant is carried to the inside
of the well causing many
problems which can lead to production interruption. Some
empirical and
theoretical models for its prediction have been developed,
however the
mechanisms that govern it are still not clearly explained.
Parameters that are
related to proppant flowback are fracture width, closure
pressure, drag force and
proppant characteristics. Proppant flowback prediction is
not included in today s
procedures of the hydraulic fracturing project. In the
present work a
computational tool for proppant stability analysis was
developed based on
empirical and theoretical prediction models. This tool has
an object oriented
architecture written in Java language. The influence of
the introduction of
restrictions to prevent proppant production in the
hydraulic fracture design
procedure was also investigated. In this way, it is aimed
to obtain hydraulic
fracturing projects by which proppant flowback is
prevented in field situations
assuring well productivity and extending its activity
period.
|
Page generated in 0.1384 seconds