• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 5
  • 2
  • Tagged with
  • 28
  • 28
  • 13
  • 10
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

An evaluation of coverage models for LoRa

Paulsson, Felix, Bitar, Issa January 2021 (has links)
LoRaWAN is a wireless network technology based on the LoRa modulation technology. When planning such a network, it is important to estimate the network’s coverage, which can be done by calculating path loss. To do this, one can utilize empirical models of radio wave propagation. Previous research has investigated the accuracy of such empirical models for LoRa inside cities. However, as the accuracy of these models is heavily dependent on the exact characteristics of the environment, it is of interest to validate these results. In addition, the effect of base station elevation on the models’ accuracy has yet to be researched. Following the problems stated above, the purpose of this study is to investigate the accuracy of empirical models of radio wave propagation for LoRa in an urban environment. More specifically, we investigate the accuracy of the models and the effect of base station elevation on the models’ accuracy. The latter is the main contribution of this study. To perform these investigations, a quantitative experiment was conducted in the city of Jönköping, Sweden. In the experiment a base station was positioned at elevations of 30, 23, and 15m. The path loss was measured from 20 locations around the base station for each level of elevation. The measured path loss was then compared to predictions from three popular empirical models: the Okumura-Hata model, the COST 231-Walfisch-Ikegami model, and the 3GPP UMa NLOS model. Our analysis showed a clear underestimation of the path loss for all models. We conclude that for an environment and setup similar to ours, models underestimate the path loss by approximately 20dB. They can be improved by adding a constant correction value, resulting in a mean absolute error of at least 3,7-5,6dB. We also conclude that the effect of base station elevation varies greatly between different models. The 3GPP model underestimated the path loss equally for all elevations and could therefore easily be improved by a constant correction value. This resulted in a mean absolute error of approximately 4dB for all elevations.
12

Dinâmica das corridas de detritos no Litoral Norte de São Paulo / Dynamics of debris flow in the north coast of São Paulo

Nery, Tulius Dias 10 December 2015 (has links)
As corridas de detritos são processos caracterizados por escoamentos rápidos associados a precipitações intensas e/ou acumuladas. A ocorrência destes processos está associada a diversas variáveis do meio físico e quando associadas a eventos extremos de precipitação podem gerar grande volume de sedimentos como aqueles observados em 1967 no município de Caraguatatuba (SP). Neste contexto, o objetivo desta pesquisa foi avaliar o potencial de geração de corridas de detritos a partir do emprego de parâmetros morfométricos para as bacias hidrográficas dos rios Santo Antônio, Guaxinduba e Mococa. Metodologicamente, o trabalho dividiu-se, em um primeiro momento, na identificação dos escorregamentos e das zonas de arraste e deposição das corridas de detritos. Posteriormente, foram extraídos os parâmetros e os índices morfométricos das bacias (área, amplitude, comprimento do canal, ângulo da encosta, índice de circularidade, densidade de drenagem e declividade média do canal), e analisados de forma qualitativa e quantitativa. A partir do reconhecimento dos processos foram selecionadas as sub-bacias para a aplicação de dois modelos empíricos considerando os valores de concentração de sólidos e de precipitação. Assim, por meio dos cenários propostos de 60 mm/h e 100 mm/h e concentração de sólidos de 50% foram obtidos os valores de vazão e de volume de sedimentos das corridas de detritos para cada sub-bacia selecionada. Os resultados obtidos na análise qualitativa mostraram similaridades entre as bacias dos rios Santo Antônio e Mococa, fato este não observado para a bacia do Guaxinduba. No entanto, a bacia do Guaxinduba apresentou maior potencial para a geração de corridas de detritos. Em 40 sub-bacias, observou-se que houve diferença de aproximadamente 60% da vazão e volume em relação aos cenários de 60 mm/h e 100 mm/h. Além disso, observou-se nas formulações empregadas que a inserção de variáveis geram valores distintos de vazão de pico e volume de sedimentos. Identificou-se que a bacia do Guaxinduba apresentou maior potência, porém com volumes inferiores aos observados nas bacias do Santo Antônio e Mococa. Acredita-se que a combinação destes métodos pode auxiliar na identificação de áreas suscetíveis à ocorrência das corridas de detritos em regiões serranas, como o Litoral Norte de São Paulo. / Debris flow processes are characterized by rapid runoff associated with heavy and/or accumulated rainfall. The occurrence of these processes is associated with several variables of the physical environment and when associated with extreme precipitation events can generate large amounts of sediment as those observed in 1967 in the city of Caraguatatuba (SP). In this context, the objective of this research was to evaluate the potential of generating debris flow from the use of morphometric parameters for the river basins of the Santo Antonio, Guaxinduba and Mococa. Methodologically, the work was divided, at first, the identification of landslides and areas of deposition of debris flow. Subsequently, the parameters and morphometric indices of the basins were extracted (area, basin relief, channel length, slope angle, circularity ratio, drainage density and average channel slope), and analyzed qualitatively and quantitatively. Based the recognition of the processes the sub-basins to the application of two empirical models considering the solid concentration values and precipitation were selected. Thus by the proposed scenarios of 60 mm / h and 100 mm/h solids concentration of 50% were obtained the values of peak discharges and magnitude of debris flow for each selected sub-basin. The results of the qualitative analysis showed similitarities between the rivers basins of the Santo Antônio and Mococa, which is not observed for the basin Guaxinduba. However, the basin Guaxinduba showed greater potential for the generation of debris flow. In sub-basin 40, it was observed that there was a difference of approximately 60% of peak discharges and magnitude in relation to the scenarios of 60 mm/h and 100 mm/h. Furthermore, it was observed that the formulations employed in the insertion variables generate different peak and magnitude values of sediment. It was identified that the Guaxinduba basin showed a higher power, but with magnitude lower than those observed in the basins of Santo Antônio and Mococa. It is believed that the combination of these methods can help identify areas susceptible to the occurrence of debris flow in mountainous regions such as the North Coast of São Paulo.
13

Semi-empirical Probability Distributions and Their Application in Wave-Structure Interaction Problems

Izadparast, Amir Hossein 2010 December 1900 (has links)
In this study, the semi-empirical approach is introduced to accurately estimate the probability distribution of complex non-linear random variables in the field of wavestructure interaction. The structural form of the semi-empirical distribution is developed based on a mathematical representation of the process and the model parameters are estimated directly from utilization of the sample data. Here, three probability distributions are developed based on the quadratic transformation of the linear random variable. Assuming that the linear process follows a standard Gaussian distribution, the three-parameter Gaussian-Stokes model is derived for the second-order variables. Similarly, the three-parameter Rayleigh-Stokes model and the four-parameter Weibull- Stokes model are derived for the crests, troughs, and heights of non-linear process assuming that the linear variable has a Rayleigh distribution or a Weibull distribution. The model parameters are empirically estimated with the application of the conventional method of moments and the newer method of L-moments. Furthermore, the application of semi-empirical models in extreme analysis and estimation of extreme statistics is discussed. As a main part of this research study, the sensitivity of the model statistics to the variability of the model parameters as well as the variability in the samples is evaluated. In addition, the sample size effects on the performance of parameter estimation methods are studied. Utilizing illustrative examples, the application of semi-empirical probability distributions in the estimation of probability distribution of non-linear random variables is studied. The examples focused on the probability distribution of: wave elevations and wave crests of ocean waves and waves in the area close to an offshore structure, wave run-up over the vertical columns of an offshore structure, and ocean wave power resources. In each example, the performance of the semi-empirical model is compared with appropriate theoretical and empirical distribution models. It is observed that the semi-empirical models are successful in capturing the probability distribution of complex non-linear variables. The semi-empirical models are more flexible than the theoretical models in capturing the probability distribution of data and the models are generally more robust than the commonly used empirical models.
14

Técnicas de análise multivariável aplicadas ao desenvolvimento de analisadores virtuais

Facchin, Samuel January 2005 (has links)
A construção de um analisador virtual é sustentada basicamente por três pilares: o modelo, as variáveis que integram o modelo e a estratégia de correção/atualização do modelo. Os modelos matemáticos são classificados quanto ao nível de conhecimento do processo contido nele, indo de modelos complexos baseados em relações fundamentais e leis físico-químicas, denominados white-box, até modelos obtidos através de técnicas de análise multivariável, como técnicas de regressão multiváriavel e redes neurais, referenciados como black box. O presente trabalho objetiva uma análise de dois dos pilares: os modelos, focando em modelos obtidos através das técnicas de redução de dimensionalidade do tipo PLS, e metodologias de seleção de variáveis para a construção dessa classe de modelos. Primeiramente é realizada uma revisão das principais variantes lineares e não lineares da metodologia PLS, compreendendo desde o seu desenvolvimento até a sua combinação com redes neurais. Posteriormente são apresentadas algumas das técnicas popularmente utilizadas para a seleção de variáveis em modelos do tipo black-box, técnicas de validação cruzada e técnicas de seleção de dados para calibração e validação de modelos. São propostas novas abordagens para os procedimentos de seleção de variáveis, originadas da combinação das técnicas de seleção de dados com duas metodologias de seleção de variáveis. Os resultados produzidos por essas novas abordagens são comparados com o método clássico através de casos lineares e não lineares. A viabilidade das técnicas analisadas e desenvolvidas é verificada através da aplicação das mesmas no desenvolvimento de um analisador virtual para uma coluna de destilação simulada através do simulador dinâmico Aspen Dynamics®. Por fim são apresentadas as etapas e desafios da implementação de um analisador virtual baseados em técnicas PLS em uma Torre Depropanizadora de uma central de matérias primas de um pólo petroquímico. / The construction of a virtual analyzer is sustained basically by three pillars: the model, the variables that integrate the model and the updating strategy of the model. The mathematical models are classified with relationship at the level of the process knowledge within it, going from complex models, based on fundamental relationships and physical-chemistries laws, called white-box, until models obtained through multivariable analysis techniques, as multiple linear regression and neural networks, also called as black box. The focus of the present work is the analysis of two of the pillars: the models, specially the ones obtained by dimension reduction techniques, like PLS, and methodologies used in the development of this class of models. Initially, a revision of the main linear and non linear variants of the PLS methodology is done, embracing since its development to its combination with neural networks. Later on, some popularly variables selection techniques for black-box models are explained, as well as some cross validation techniques and strategies for data selection for calibration and validation of models. New approaches for variables selection procedures are proposed, originated by the combination of data selection strategies and two variables selection techniques. The results produced by those new approaches are compared with the classic method through linear and non linear case studies. The viability of the analyzed and developed techniques is verified through the application of the same ones in the development of a virtual analyzer for a distillation column, simulated by the dynamic simulator Aspen Dynamics®. The steps and challenges faced in the implementation of a virtual analyzer based on PLS technical for a Depropanizer Unit are finally presented.
15

Irradiação solar global com diferentes modelos para Alagoas / Global irradiation with different models for Alagoas

Santos, Cicero Manoel dos 24 February 2012 (has links)
The global solar irradiation (Hg) is variable major in several subject areas: Agriculture, Engineering, Climate and Renewable Energy. The total amount of incident Hg on the earth's surface can be accounted directly or indirectly. Directly is obtained from measurements made with operational instruments (pyranometers) and indirectly by estimating, by using empirical models. In this work, ten empirical models are used (nine based on air temperature and one in the sunshine duration) to estimate the global solar irradiation in eight sites from to Alagoas - Brazil, in scale hourly, daily and monthly. For models based on air temperature, two temperature regimes (air thermal amplitudes) (∆T1 and ∆T2) were evaluated to verify the influence on the models. Have been used air temperature, sunshine duration (n) and global solar irradiation (Hg) data, from September 2007 to December 2008 for fit of the models, and to validate the use data in 2009. The global solar irradiations (Hg) (MJm-2) were calculated from the integrations of the global solar irradiance (Rg) (Wm-2). In terms of global solar irradiation hourly average monthly (Hgh), the coefficients of the models shown to be dependent on the study site. The coefficients generated with daily data and monthly averages showed no difference to ΔT1 or ΔT2. For the model based on the sunshine duration (n), the adjusted coefficients are specifics to the estimated daily and monthly. In estimating hourly, the Hargreaves & Samani model (model 6) and the modified Hargreaves & Samani (models 7, 8 and 9) estimated the best monthly hourly global solar irradiation average (Hgh) in all sites analyzed. In the daily estimate, the Bristow & Campbell model (model 1) was more accurate than the model 6. However, the model 6 resulted with an average value of the population standard deviation of deviations (dpp) of 2,60, 2,79 and 2,79 MJm-2 for sites in the regions of the interior (Sertão), Hinterland (Agreste) and Coastal (Litoral) / Humid Area (Zona da Mata), respectively. Each month, the model 1 was more accurate than the model 6. The model based on the sunshine duration estimated the best daily global solar irradiation (Hgd) and monthly daily global solar irradiation average (Hgm), those based on air temperature, indicating low (dpp) and high coefficients of agreement (d). / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A irradiação solar global (Hg) é variável de grande importância em diversas áreas do conhecimento: Agricultura, Engenharia, Climatologia e Energia Renováveis. A quantidade total de Hg que incide na superfície terrestre pode ser contabilizada diretamente ou indiretamente. Diretamente é obtida a partir de medidas realizadas com instrumentos operacionais (piranômetros) e indiretamente por estimativa, em geral, utilizando-se modelos empíricos. Nesse trabalho, foram utilizados dez modelos empíricos (nove baseados na temperatura do ar e um na duração do brilho solar) para estimar a irradiação solar global em oito locais de Alagoas - Brasil, em escala horária, diária e mensal. Para os modelos baseados na temperatura do ar, dois regimes (amplitudes térmicas do ar) de temperatura (∆T1 e ∆T2) foram avaliados para verificar a influencia deles nos modelos. Foram utilizados dados de temperatura do ar, duração do brilho solar (n) e irradiação solar global (Hg), no período de setembro de 2007 a dezembro de 2008 para ajuste dos modelos, e para validação a utilização de dados de 2009. As irradiações solar global (Hg) (MJm-2) foram calculadas a partir das integrações das irradiâncias solar global (Rg) (Wm-2). Em termo da irradiação solar global média horária mensal (Hgh), os coeficientes dos modelos mostraram ser dependentes do local de estudo. Os coeficientes gerados com dados diários e médias mensais não mostraram diferença para ∆T1 ou ∆T2. Para o modelo baseado na duração do brilho solar (n), os coeficientes ajustados são específicos para a estimativa diária e mensal. Na estimativa horária, o modelo de Hargreaves & Samani (modelo 6) e os modificados de Hargreaves & Samani (modelos 7, 8 e 9) estimaram melhor a irradiação solar global média horária mensal (Hgh), em todos locais analisados. Na estimativa diária, o modelo de Bristow & Campbell (modelo 1) foi mais preciso que o modelo 6. Porém, o modelo 6 resultou com valor médio do desvio padrão da população de desvios (dpp) de 2,60, 2,79 e 2,79 MJm-2 para os locais situados no Sertão, Agreste e Litoral/Zona da Mata, respectivamente. Mensalmente, o modelo 1 foi mais preciso que o modelo 6. O modelo baseado na duração do brilho solar estimou melhor a irradiação solar global diária (Hgd) e a irradiação solar global média diária mensal (Hgm), que os baseados na temperatura do ar, indicando baixos (dpp) e elevados coeficientes de concordâncias (d).
16

Técnicas de análise multivariável aplicadas ao desenvolvimento de analisadores virtuais

Facchin, Samuel January 2005 (has links)
A construção de um analisador virtual é sustentada basicamente por três pilares: o modelo, as variáveis que integram o modelo e a estratégia de correção/atualização do modelo. Os modelos matemáticos são classificados quanto ao nível de conhecimento do processo contido nele, indo de modelos complexos baseados em relações fundamentais e leis físico-químicas, denominados white-box, até modelos obtidos através de técnicas de análise multivariável, como técnicas de regressão multiváriavel e redes neurais, referenciados como black box. O presente trabalho objetiva uma análise de dois dos pilares: os modelos, focando em modelos obtidos através das técnicas de redução de dimensionalidade do tipo PLS, e metodologias de seleção de variáveis para a construção dessa classe de modelos. Primeiramente é realizada uma revisão das principais variantes lineares e não lineares da metodologia PLS, compreendendo desde o seu desenvolvimento até a sua combinação com redes neurais. Posteriormente são apresentadas algumas das técnicas popularmente utilizadas para a seleção de variáveis em modelos do tipo black-box, técnicas de validação cruzada e técnicas de seleção de dados para calibração e validação de modelos. São propostas novas abordagens para os procedimentos de seleção de variáveis, originadas da combinação das técnicas de seleção de dados com duas metodologias de seleção de variáveis. Os resultados produzidos por essas novas abordagens são comparados com o método clássico através de casos lineares e não lineares. A viabilidade das técnicas analisadas e desenvolvidas é verificada através da aplicação das mesmas no desenvolvimento de um analisador virtual para uma coluna de destilação simulada através do simulador dinâmico Aspen Dynamics®. Por fim são apresentadas as etapas e desafios da implementação de um analisador virtual baseados em técnicas PLS em uma Torre Depropanizadora de uma central de matérias primas de um pólo petroquímico. / The construction of a virtual analyzer is sustained basically by three pillars: the model, the variables that integrate the model and the updating strategy of the model. The mathematical models are classified with relationship at the level of the process knowledge within it, going from complex models, based on fundamental relationships and physical-chemistries laws, called white-box, until models obtained through multivariable analysis techniques, as multiple linear regression and neural networks, also called as black box. The focus of the present work is the analysis of two of the pillars: the models, specially the ones obtained by dimension reduction techniques, like PLS, and methodologies used in the development of this class of models. Initially, a revision of the main linear and non linear variants of the PLS methodology is done, embracing since its development to its combination with neural networks. Later on, some popularly variables selection techniques for black-box models are explained, as well as some cross validation techniques and strategies for data selection for calibration and validation of models. New approaches for variables selection procedures are proposed, originated by the combination of data selection strategies and two variables selection techniques. The results produced by those new approaches are compared with the classic method through linear and non linear case studies. The viability of the analyzed and developed techniques is verified through the application of the same ones in the development of a virtual analyzer for a distillation column, simulated by the dynamic simulator Aspen Dynamics®. The steps and challenges faced in the implementation of a virtual analyzer based on PLS technical for a Depropanizer Unit are finally presented.
17

Dinâmica das corridas de detritos no Litoral Norte de São Paulo / Dynamics of debris flow in the north coast of São Paulo

Tulius Dias Nery 10 December 2015 (has links)
As corridas de detritos são processos caracterizados por escoamentos rápidos associados a precipitações intensas e/ou acumuladas. A ocorrência destes processos está associada a diversas variáveis do meio físico e quando associadas a eventos extremos de precipitação podem gerar grande volume de sedimentos como aqueles observados em 1967 no município de Caraguatatuba (SP). Neste contexto, o objetivo desta pesquisa foi avaliar o potencial de geração de corridas de detritos a partir do emprego de parâmetros morfométricos para as bacias hidrográficas dos rios Santo Antônio, Guaxinduba e Mococa. Metodologicamente, o trabalho dividiu-se, em um primeiro momento, na identificação dos escorregamentos e das zonas de arraste e deposição das corridas de detritos. Posteriormente, foram extraídos os parâmetros e os índices morfométricos das bacias (área, amplitude, comprimento do canal, ângulo da encosta, índice de circularidade, densidade de drenagem e declividade média do canal), e analisados de forma qualitativa e quantitativa. A partir do reconhecimento dos processos foram selecionadas as sub-bacias para a aplicação de dois modelos empíricos considerando os valores de concentração de sólidos e de precipitação. Assim, por meio dos cenários propostos de 60 mm/h e 100 mm/h e concentração de sólidos de 50% foram obtidos os valores de vazão e de volume de sedimentos das corridas de detritos para cada sub-bacia selecionada. Os resultados obtidos na análise qualitativa mostraram similaridades entre as bacias dos rios Santo Antônio e Mococa, fato este não observado para a bacia do Guaxinduba. No entanto, a bacia do Guaxinduba apresentou maior potencial para a geração de corridas de detritos. Em 40 sub-bacias, observou-se que houve diferença de aproximadamente 60% da vazão e volume em relação aos cenários de 60 mm/h e 100 mm/h. Além disso, observou-se nas formulações empregadas que a inserção de variáveis geram valores distintos de vazão de pico e volume de sedimentos. Identificou-se que a bacia do Guaxinduba apresentou maior potência, porém com volumes inferiores aos observados nas bacias do Santo Antônio e Mococa. Acredita-se que a combinação destes métodos pode auxiliar na identificação de áreas suscetíveis à ocorrência das corridas de detritos em regiões serranas, como o Litoral Norte de São Paulo. / Debris flow processes are characterized by rapid runoff associated with heavy and/or accumulated rainfall. The occurrence of these processes is associated with several variables of the physical environment and when associated with extreme precipitation events can generate large amounts of sediment as those observed in 1967 in the city of Caraguatatuba (SP). In this context, the objective of this research was to evaluate the potential of generating debris flow from the use of morphometric parameters for the river basins of the Santo Antonio, Guaxinduba and Mococa. Methodologically, the work was divided, at first, the identification of landslides and areas of deposition of debris flow. Subsequently, the parameters and morphometric indices of the basins were extracted (area, basin relief, channel length, slope angle, circularity ratio, drainage density and average channel slope), and analyzed qualitatively and quantitatively. Based the recognition of the processes the sub-basins to the application of two empirical models considering the solid concentration values and precipitation were selected. Thus by the proposed scenarios of 60 mm / h and 100 mm/h solids concentration of 50% were obtained the values of peak discharges and magnitude of debris flow for each selected sub-basin. The results of the qualitative analysis showed similitarities between the rivers basins of the Santo Antônio and Mococa, which is not observed for the basin Guaxinduba. However, the basin Guaxinduba showed greater potential for the generation of debris flow. In sub-basin 40, it was observed that there was a difference of approximately 60% of peak discharges and magnitude in relation to the scenarios of 60 mm/h and 100 mm/h. Furthermore, it was observed that the formulations employed in the insertion variables generate different peak and magnitude values of sediment. It was identified that the Guaxinduba basin showed a higher power, but with magnitude lower than those observed in the basins of Santo Antônio and Mococa. It is believed that the combination of these methods can help identify areas susceptible to the occurrence of debris flow in mountainous regions such as the North Coast of São Paulo.
18

Técnicas de análise multivariável aplicadas ao desenvolvimento de analisadores virtuais

Facchin, Samuel January 2005 (has links)
A construção de um analisador virtual é sustentada basicamente por três pilares: o modelo, as variáveis que integram o modelo e a estratégia de correção/atualização do modelo. Os modelos matemáticos são classificados quanto ao nível de conhecimento do processo contido nele, indo de modelos complexos baseados em relações fundamentais e leis físico-químicas, denominados white-box, até modelos obtidos através de técnicas de análise multivariável, como técnicas de regressão multiváriavel e redes neurais, referenciados como black box. O presente trabalho objetiva uma análise de dois dos pilares: os modelos, focando em modelos obtidos através das técnicas de redução de dimensionalidade do tipo PLS, e metodologias de seleção de variáveis para a construção dessa classe de modelos. Primeiramente é realizada uma revisão das principais variantes lineares e não lineares da metodologia PLS, compreendendo desde o seu desenvolvimento até a sua combinação com redes neurais. Posteriormente são apresentadas algumas das técnicas popularmente utilizadas para a seleção de variáveis em modelos do tipo black-box, técnicas de validação cruzada e técnicas de seleção de dados para calibração e validação de modelos. São propostas novas abordagens para os procedimentos de seleção de variáveis, originadas da combinação das técnicas de seleção de dados com duas metodologias de seleção de variáveis. Os resultados produzidos por essas novas abordagens são comparados com o método clássico através de casos lineares e não lineares. A viabilidade das técnicas analisadas e desenvolvidas é verificada através da aplicação das mesmas no desenvolvimento de um analisador virtual para uma coluna de destilação simulada através do simulador dinâmico Aspen Dynamics®. Por fim são apresentadas as etapas e desafios da implementação de um analisador virtual baseados em técnicas PLS em uma Torre Depropanizadora de uma central de matérias primas de um pólo petroquímico. / The construction of a virtual analyzer is sustained basically by three pillars: the model, the variables that integrate the model and the updating strategy of the model. The mathematical models are classified with relationship at the level of the process knowledge within it, going from complex models, based on fundamental relationships and physical-chemistries laws, called white-box, until models obtained through multivariable analysis techniques, as multiple linear regression and neural networks, also called as black box. The focus of the present work is the analysis of two of the pillars: the models, specially the ones obtained by dimension reduction techniques, like PLS, and methodologies used in the development of this class of models. Initially, a revision of the main linear and non linear variants of the PLS methodology is done, embracing since its development to its combination with neural networks. Later on, some popularly variables selection techniques for black-box models are explained, as well as some cross validation techniques and strategies for data selection for calibration and validation of models. New approaches for variables selection procedures are proposed, originated by the combination of data selection strategies and two variables selection techniques. The results produced by those new approaches are compared with the classic method through linear and non linear case studies. The viability of the analyzed and developed techniques is verified through the application of the same ones in the development of a virtual analyzer for a distillation column, simulated by the dynamic simulator Aspen Dynamics®. The steps and challenges faced in the implementation of a virtual analyzer based on PLS technical for a Depropanizer Unit are finally presented.
19

A Bayesian Inference/Maximum Entropy Approach for Optimization and Validation of Empirical Molecular Models

Raddi, Robert, 0000-0001-7139-5028 05 1900 (has links)
Accurate modeling of structural ensembles is essential for understanding molecular function, predicting molecular interactions, refining molecular potentials, protein engineering, drug discovery, and more. Here, we enhance molecular modeling through Bayesian Inference of Conformational Populations (BICePs), a highly versatile algorithm for reweighting simulated ensembles with experimental data. By incorporating replica-averaging, improved likelihood functions to better address systematic errors, and adopting variational optimization schemes, the utility of this algorithm in the refinement and validation of both structural ensembles and empirical models is unmatched. Utilizing a set of diverse experimental measurements, including NOE distances, chemical shifts, and vicinal J-coupling constants, we evaluated nine force fields for simulating the mini-protein chignolin, highlighting BICePs’ capability to correctly identify folded conformations and perform objective model selection. Additionally, we demonstrate how BICePs automates the parameterization of molecular potentials and forward models—computational frameworks that generate observable quantities—while properly accounting for all sources of random and systematic error. By reconciling prior knowledge of structural ensembles with solution-based experimental observations, BICePs not only offers a robust approach for evaluating the predictive accuracy of molecular models but also shows significant promise for future applications in computational chemistry and biophysics. / Chemistry
20

[en] STUDY OF PROPPED MATERIAL OF FRACTURES STIMULATED BY HYDRAULIC FRACTURING IN OIL WELLS / [pt] ESTUDO DA ESTABILIDADE DO MATERIAL DE SUSTENTAÇÃO DE FRATURAS ESTIMULADAS HIDRAULICAMENTE EM POÇOS DE PETRÓLEO

LILIANE TOJEIRA VELOZO 24 July 2006 (has links)
[pt] A viabilidade da exploração de um campo petrolífero está associada às características produtivas da formação, obtidas mediante o desenvolvimento e a aplicação de técnicas capazes de aumentar a economicidade dos poços. A técnica de estimulação mais utilizada atualmente é o fraturamento hidráulico, que tem como uma das etapas principais a injeção de um material granular, denominado de propante, para a manutenção da abertura da fratura. Tal técnica tem como obstáculo o refluxo do propante para o interior do poço (proppant flowback), ocasionando diversos problemas que podem levar à interrupção da produção do mesmo. Alguns modelos teóricos e empíricos foram desenvolvidos para a previsão desse fenômeno, mas os mecanismos que o governam não são ainda claramente explicados. Alguns fatores que influenciam na produção de propante são largura da fratura, tensão de fechamento, gradiente hidráulico e características do propante. O refluxo de propante não é considerado nos procedimentos atuais de projeto de fraturamento hidráulico. Nessa dissertação de mestrado foi desenvolvida uma ferramenta computacional com uma arquitetura orientada a objeto, em linguagem de programação Java, para a análise de estabilidade do propante no interior da fratura com base em modelos empíricos e teóricos. Além disso, foi investigada a influência da inclusão de restrições no projeto de fraturamento de modo a prevenir o fenômeno. Busca-se, desse modo, a obtenção de melhores projetos de fraturamento hidráulicos com prevenção do refluxo de propante, garantindo a produtividade do poço e prolongando sua vida útil. / [en] The viability of the exploration of an oil field is associated with the productive characteristics of the formation, guaranteed by means of the development and application of techniques capable of increasing the productivity and the economy of the oil fields. The currently most used stimulation technique is hydraulic fracturing, by which one of the main stages is the injection of a granular material called proppant to keep the fracture open and enhance fracture permeability. This technique presents as a drawback the phenomenon known as proppant flowback. The proppant is carried to the inside of the well causing many problems which can lead to production interruption. Some empirical and theoretical models for its prediction have been developed, however the mechanisms that govern it are still not clearly explained. Parameters that are related to proppant flowback are fracture width, closure pressure, drag force and proppant characteristics. Proppant flowback prediction is not included in today s procedures of the hydraulic fracturing project. In the present work a computational tool for proppant stability analysis was developed based on empirical and theoretical prediction models. This tool has an object oriented architecture written in Java language. The influence of the introduction of restrictions to prevent proppant production in the hydraulic fracture design procedure was also investigated. In this way, it is aimed to obtain hydraulic fracturing projects by which proppant flowback is prevented in field situations assuring well productivity and extending its activity period.

Page generated in 0.1384 seconds