• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 173
  • 79
  • 36
  • 24
  • 16
  • 7
  • 6
  • 6
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 441
  • 441
  • 47
  • 46
  • 43
  • 40
  • 40
  • 34
  • 32
  • 32
  • 30
  • 29
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Predição da intensidade de corrida em máxima fase estável de lactato a partir da velocidade de crítica em atletas fundistas de alto rendimento : relações com performances /

D'Angelo, Ricardo Antonio. January 2008 (has links)
Orientador: Claudio Alexandre Gobatto / Banca: Denise Vaz de Macedo / Banca: Miguel de Arruda / Resumo: A corrida de longa distância é considerada um fenômeno sócio-esportivo recente e de grande impacto na vida moderna. No segmento dos atletas profissionais, a busca por índices confiáveis de avaliação aeróbia, bem como programas de treinamento eficazes e de fácil aplicabilidade é contínua. O tema central desse trabalho foi fornecer uma ferramenta adequada e precisa para se determinar o atual estado da forma do atleta de fundo de alto rendimento, bem como predizer intensidades de carga confiáveis para treinamento e competição. Para tanto, foi estabelecida uma relação matemática entre dois testes de avaliação aeróbia: Máxima Fase Estável de Lactato (MFEL) e Velocidade Crítica (Vcrit). Nove atletas fundistas de alto rendimento, que participaram de seleções nacionais em competições internacionais, tomaram parte no experimento. As melhores marcas pessoais desses atletas correspondem à média ± erro padrão de 91,54 ± 0,93 % da velocidade de corrida do recorde mundial (considerados até o ano de 2007) de sua prova específica. Os testes foram realizados na fase final do período de treinamento de preparação geral. Inicialmente foi aplicado o teste de Vcrit nas distâncias de 800m, 1500m, 3.000m e 5.000m, realizadas aleatoriamente e em dias subseqüentes. A seguir, foi aplicado o teste clássico de MFEL, com duração de 30 min de corrida contínua e coleta de amostras de sangue (25μL) a cada 5 min, para determinação das concentrações de lactato (YSI 1500 sport). Para oito atletas a MFEL ocorreu na intensidade correspondente a 98% da Vcrit, sendo o restante obtido a 90% da Vcrit. A Vcrit (19,1±0,1 km/h) superestimou (p=0,005) os valores de MFEL (18,7±0,2 km/h). Houve correlação significativa entre Vcrit e MFEL (p=0,002, r=0,88). A equação obtida pela regressão foi MFEL=0,9673*Vcrit+0,2061, com erro padrão da estimativa de 0,236...(Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The purpose of this study was to establish a mathematical relationship between the MLSS and the critical speed (CS) in high performance distance runners. Nine male high performance athletes were tested (28±2years), with personal bests of their specific events corresponding a mean ± ESE of 91,54 ± 0,93 % of world record running speed (updated 2007). The athletes were submitted to the CS test, which is the linear regression of the distances (800, 1.500, 3.000 and 5.000m) and their respective time. The CS was determined by the angular coefficient of the linear regression. For all athletes, the regression coefficient (R2) was equal to 1,0. The predicted workloads for the MLSS determination were: 100, 98, 95 and 90% of the CS, randomized and in a continuous way in subsequent days. In this test, the athletes run for 30 min, and it was collected blood samples (25μL) at each 5 min, to determine the lactate concentration (YSI 1500 sport). It was determined stable the non lactate variation higher than 1,0 mmol/L between the 10th and 30th minute. The MLSS has occurred for 8 athletes on the 98% intensity of CS and for 1 athlete on the 90%. The CS (19,1±0,1 km/h) overestimated (p=0,005) the MLSS values (18,7±0,2 km/h). There was significant correlation between CS and MLSS (p=0,002, r=0,88). The regression equation was MLSS=0,9673*CS+0,2061, with estimated standard error of 0,236. There was excellent application of distances to determine the CS in elite distance runners, as well as the parameter accuracy to the "gold standard" intensity verified with the MLSS test. These responses, associated with the low standard estimated error, suggest safety at the MLSS determination through the predicted equation proposed. / Mestre
212

Análise de parâmetros de força e padrão de nado de ratos controles e obesos, a partir de um sistema de aquisição de sinais em natação atada : Influência da intensidade do exercício e da densidade corporal /

Reis, Ivan Gustavo Masselli dos. January 2010 (has links)
Orientador: Claudio Alexandre Gobatto / Banca: Eliete Luciano / Banca: René Brenzikofer / Resumo: No modelo de natação para ratos, a associação das intensidades de exercício determinadas por meio da lactacidemia com as suas respectivas sobrecargas são passíveis de crítica, uma vez que a quantificação dos pesos atados ao animal pode não representar efetivamente o esforço real do animal para sua manutenção na superfície da água, devido a esta metodologia sofrer influência da densidade corporal e dos padrões de nado apresentados pelos animais. O principal objetivo desse estudo foi desenvolver um modelo de natação atada para roedores o qual permitiu a determinação direta e em tempo real da força de nado realizada pelo animal e verificar a possível existência de diferentes padrões de nado. Além disso, foi feita a discriminação da densidade corporal em animais controles e induzidos à obesidade, com intuito de destacar consistentemente a influência da flutuabilidade na natação. Foram utilizados 24 rattus norvegicus albinus, machos, com 150 dias de idade, divididos em animais controles e induzidos à obesidade por meio da redução de ninhada somada a uma dieta hiperlipídica. Os animais tiveram a densidade corporal determinada por meio de um aparato de pesagem hidrostática utilizando um sistema de aquisição de dados. Posteriormente todos os ratos foram avaliados no teste de máxima fase estável de lactato adaptado para natação atada. Por meio do modelo experimental de indução a obesidade, foi possível induzir aumento significativo do peso e volume corporal, alem da redução da densidade corporal dos animais no grupo obeso. As avaliações de animais controles e obesos revelaram a influência significativa da densidade corporal na determinação das intensidades de exercício, principalmente quando as cargas foram expressas em valores absolutos. Estudos que fazem uso do modelo de natação para ratos, principalmente de caráter longitudinal... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: In the swimming model for rats, the association between the blood lactate concentration with the exercise intensity could be criticized once the workload quantification could not represent effectively the effort performed by the rat to keep himself on the surface, due to it be affected by the body density and the swimming patterns present by the animals. Thus, the mainly objective of this study was develop a apparatus for tethered swimming for rats, that allows the monitoring of swimming force during all exercise time and to verify the existence of different sorts of swimming patterns. 24 male rattus novergicus albinus, with 150 days of age were used, divided in control and obese induced animals by a nest reduction and hyper-lipid diet. All animals had their body density determined by hydrostatic weighing with an acquiring data device. Later the animals were evaluated in maximal lactate steady state test adapted to the tethered swimming. Was possible to induce significant weight and body volume increase in the obese group beside the reduction of the body density. The assessment of control and obese animals reveled significant body density influence in the workload determination, mainly when the workload was expressed in absolute values. Tethered swimming model allowed the investigation of statistic parameters of the data signal, which showed that the signal amplitude varied in function of the intensity, however the dispersion did not. Also the visual analyses of the force kinetic allowed the identification of 4 swimming patterns and the speculation about the reason and consequences of it incidence. Therefore animals that present such swimming patterns which can influence the assessment should be removed from the sample. Studies that make use of the swimming model for rats, mainly those of longitudinal duration or that make use of interventions that may change the animal's body composition...(Complete abstract click electronic access below) / Mestre
213

Metodologia para quantificação e acompanhamento de indicadores-chave de desempenho operacional

Giaquinto, Cláudia Daniela Melo January 2017 (has links)
Indicadores-chave de desempenho (KPIs) exercem um papel de extrema importância na indústria de processos, auxiliando na tomada de decisão. No entanto, para serem representativos precisam ser calculados de forma confiável. O presente trabalho propôs uma metodologia para o cálculo destes KPIs com base em técnicas de detecção do estado estacionário, remoção de ruído, propagação de erros e análise de sensibilidade. Estes KPIs foram apresentados, de acordo com o que consta na literatura, em uma nova ferramenta gráfica de acompanhamento proposta pelos autores, denominada StatSSCandlePlot. O StatSSCandlePlot apresenta os KPIs no padrão candlestick, que é bastante utilizado no mercado de ações, incluindo informações adicionais. O grande diferencial do StatSSCandlePlot é que os indicadores e suas respectivas propriedades exibidas são calculadas a partir de técnicas que englobam o tratamento de dados e análises estatísticas. A metodologia proposta foi aplicada em um estudo de caso de um chuveiro contendo dois princípios de aquecimento, gás e energia elétrica. Para este estudo, foi criado o Índice de Qualidade do Banho (IQB), que é um indicador dependente da temperatura e da vazão de saída, cujos dados foram avaliados em três cenários distintos, o primeiro quando o sistema é submetido a distúrbios na vazão, no segundo ocorre uma queda na temperatura da água fria e no último, o IQB foi avaliado quando o sistema foi submetido a distúrbios na vazão sob uma nova estratégia de controle da planta. A partir do StatSSCandlePlot, foi possível identificar as tendências do indicador nos diferentes cenários, a parcela de cada janela no estado estacionário, os valores a serem considerados do indicador e, de forma complementar, identificar a variável que mais influenciou na variação do indicador, através da análise de sensibilidade. / Key performance indicators (KPIs) play an extremely important role in the process industry, aiding in decision-making. However, to be representative they need to be calculated reliably. The present work proposed a methodology for the calculation of these KPIs based on steady state detection, noise removal, error propagation and sensitivity analysis techniques. These KPIs were presented, as far as it is known, in a new graphical KPIs monitoring tool proposed by the authors, called StatSSCandlePlot. StatSSCandlePlot introduces KPIs in the candlestick standard, which is widely used in the stock market, including additional information. The major difference of StatSSCandlePlot is that the indicators and their respective displayed properties are calculated from techniques that encompass data processing and statistical analysis. The proposed methodology was applied in a case study of a shower containing two principles of heating, gas and electric energy. For this study the Bath Quality Index (BQI) was created, which is a temperature and output flow dependent indicator, whose data were evaluated in three different scenarios, the first one when the system was submitted to flow disturbances, in the second one, a decrease in the temperature of the cold water and in the last one, the IQB was evaluated when the system was submitted to disturbances in the flow under a new strategy of control of the plant. From the StatSSCandlePlot, it was possible to identify the trends of the indicator in the different scenarios, the portion of each window in the steady state, the values to be considered in the indicator and, in a complementary way, to identify the variable that most influenced the variation of the indicator, through the sensitivity analysis.
214

Algoritmos de Geração de Protótipos Para Bases Desbalanceadas

Oliveira, Dayvid Victor Rodrigues de 25 February 2014 (has links)
Submitted by Lucelia Lucena (lucelia.lucena@ufpe.br) on 2015-03-06T19:37:29Z No. of bitstreams: 2 DISSERTAÇÃO Dayvid Victor Rodrigues de Oliveira.pdf: 798881 bytes, checksum: 3b4ac40fda11573b025340c2b03e8903 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-06T19:37:29Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Dayvid Victor Rodrigues de Oliveira.pdf: 798881 bytes, checksum: 3b4ac40fda11573b025340c2b03e8903 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-02-25 / Técnicas de redução de instâncias são técnicas usadas para reduzir a quantidade de instâncias em um conjunto de dados. Estas técnicas podem atuar removendo dados redundantes ou gerando novos dados. As instâncias resultantes são chamadas de protótipos. Técnicas de seleção de protótipos, são técnicas de redução de instâncias que realizam esta tarefa selecionando um subconjunto do conjunto de dados original. Já as técnicas de geração de protótipos, são técnicas de redução de instâncias que criam instâncias que não necessariamente pertencem ao conjunto de dados original. Algoritmos evolucionários têm sido frequentemente utilizados em seleção de protótipos, tal abordagem é chamada de evolutionary prototype selection. Algumas bases de dados do mundo real possuem muitas instâncias de uma classe, a classe majoritária, e poucas de outra, classe minoritária, estas bases são chamadas de bases desbalanceadas. Em tais bases, muitos algoritmos de redução de instâncias se tornam inviáveis, retornando muitas instâncias da classe majoritária e poucas, ou até nenhuma, da classe minoritária. Este efeito é ainda mais acentuado em técnicas de remoção de ruídos. Neste trabalho, são propostas duas técnicas de geração de protótipos que minimizam o efeito de desbalanceamento entre classes. A primeira proposta é o Creative Steady-State Memetic Algorithm (CSSMA), um algoritmo de geração de protótipos que utiliza um algoritmo evolucionário, incorporando uma busca local, para encontrar o conjunto de protótipos artificiais que maximiza a função de aptidão. Esta técnica é inspirada no Steady-State Memetic Algorithm, uma das melhores técnicas de seleção de protótipos na literatura, tanto em redução quanto em classificação. A segunda proposta é o Adaptive Self- Generating Prototypes (ASGP), esta técnica gera instâncias levando em consideração o tamanho do maior agrupamento de cada classe. O ASGP é uma derivação do Self-Generating Prototypes (SGP), considerada uma das técnicas de geração de protótipos de maior poder de generalização, sendo, porém, ineficiente em bases desbalanceadas. As bases de dados usadas nos experimentos são do módulo imbalanced datasets do KEEL software, dicotômicas, e com diferentes níveis de desbalanceamento. Cada base é dividida em 5 partições para aplicação do k-fold cross validation (k=5). As métricas usadas para avaliar a performance dos algoritmos foram a area under the ROC curve (AUC) e a taxa de redução. Para comparar os resultados, foi utilizado o teste estatístico de Wilcoxon. Os resultados mostram que o CSSMA foi superior em taxa de acerto, AUC, a outros algoritmos evolucionários de redução de instâncias recentemente propostos. O ASGP também obteve uma AUC superior ao Self-Generating Prototypes 2, versão mais atual do SGP.
215

A utilização da resposta auditiva de estado estável para estimar limiares auditivos em indivíduos com perda auditiva neurossensorial / Utilization of auditory steady state response to estimate the auditory threshold in individuals with sensorineural hearing loss

Josilene Luciene Duarte 26 March 2007 (has links)
O diagnóstico precoce da perda auditiva tem sido cada vez mais freqüente em virtude dos programas de saúde auditiva que estão sendo implantados em todo o país. Existe, contudo, a necessidade de técnicas e procedimentos que ajudem a identificar, com maior precisão, a presença e o grau da mesma. A Resposta Auditiva de Estado Estável (RAEE) é um procedimento eletrofisiológico que, ao contrário do Potencial Evocado Auditivo de Tronco Encefálico (PEATE) realizado com estímulo tone burst, possibilita avaliar, ao mesmo tempo limiares auditivos com especificidade por freqüência e por orelha, reduzindo assim o tempo do exame. Além disso, ele permite a estimulação até níveis próximos a 130 dBHL, podendo assim medir a audição residual. O objetivo deste estudo foi verificar a aplicabilidade da RAEE para determinar os limiares auditivos nos diferentes graus de perda auditiva neurossensorial. Foram avaliados 65 indivíduos com perda auditiva neurossensorial, sendo que 48 apresentaram alteração neurossensorial (coclear) de grau leve até profundo, e idades entre sete e 30 anos; e 17 apresentaram alteração neurossensorial (Neuropatia Auditiva/Dessincronia Auditiva) e idades entre 0,6 e cinco anos. A avaliação foi composta por Audiometria Tonal Liminar (ATL) e pesquisa da RAEE para o grupo com alteração neurossensorial (coclear) e somente a pesquisa da RAEE para o grupo com alteração neurossensorial (NA/DA). Os resultados demonstraram que, nos indivíduos com perda auditiva neurossensorial (coclear), houve associação significante (p<0,01) entre os limiares obtidos na ATL e RAEE para as freqüências de 0,5 a 4 kHz, ocorrendo uma maior concordância para graus de deficiências auditivas mais acentuadas. Já na perda auditiva neurossensorial (NA/DA), a RAEE mostrou ausência de resposta na maioria dos indivíduos avaliados. Concluímos que a RAEE pode predizer os limiares da ATL com maior precisão para os graus de perda auditiva mais acentuados, e que a utilização deste procedimento não mostrou informações adicionais que podem contribuir para o diagnóstico da perda auditiva neurossensorial (NA/DA). / The diagnosis of hearing loss in the first months of life has been increasingly frequent due to hearing health programs established throughout the country. Thus, techniques and procedures should be developed for accurate identification of the presence and severity of hearing loss, in a population whose motor and cognitive development does not allow response to behavioral methods. The auditory steady state response (ASSR) is an electrophysiological procedure which, different from the brainstem evoked response audiometry (BERA) conducted with tone burst stimuli, allows the establishment of hearing thresholds at multiple frequencies and for both ears, thus reducing the examination time. Moreover, it allows measurement of residual hearing due to the possibility of stimulation at levels close to 130 dBHL. Therefore, the present study aimed to investigate the applicability of ASSR for establishment of hearing thresholds in different severities of sensorineural hearing loss. A total of 65 individuals with sensorineural hearing loss were evaluated, among whom 48 presented mild to deep sensorineural disorder (cochlear), at the age range 7 to 30 years; and 17 presented sensorineural disorder (neuropathy/hearing dyssynchrony) aged 0.6 to 5 years. The evaluation comprised pure-tone threshold audiometry (PTTA) and ASSR analysis for the group with deep sensorineural disorder (cochlear) and only ASSR analysis for the group with sensorineural disorder (neuropathy/hearing dyssynchrony). The results demonstrated that, for individuals with deep sensorineural hearing loss (cochlear), there was significant association (p<0.01) between the thresholds obtained by PTTA and ASSR at frequencies from 0.5 to 4 kHz, with higher agreement in cases with more severe hearing loss. On the other hand, for the sensorineural hearing loss (neuropathy/hearing dyssynchrony), the ASSR was absent in most individuals analyzed. It was concluded that there is significant association between the thresholds obtained by PTTA and ASSR, and that the utilization of this procedure did not provide additional information that might contribute to the diagnosis of sensorineural hearing loss (neuropathy/hearing dyssynchrony), when compared to BERA
216

Um método de reanálise adaptativa para otimização estrutural usando um algoritmo genético não-geracional

Loureiro, Michelli Marlane Silva 26 February 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-05-05T14:31:22Z No. of bitstreams: 1 michellimarlanesilvaloureiro.pdf: 1130544 bytes, checksum: 086b7a6420ee519ed479ec2df829bc04 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-06-07T15:38:53Z (GMT) No. of bitstreams: 1 michellimarlanesilvaloureiro.pdf: 1130544 bytes, checksum: 086b7a6420ee519ed479ec2df829bc04 (MD5) / Made available in DSpace on 2016-06-07T15:38:53Z (GMT). No. of bitstreams: 1 michellimarlanesilvaloureiro.pdf: 1130544 bytes, checksum: 086b7a6420ee519ed479ec2df829bc04 (MD5) Previous issue date: 2016-02-26 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Algoritmos Genéticos (AG’s) são ferramentas de grande poder computacional quando utilizadas em problemas de otimização em que a solução não pode ser obtida de forma trivial. Apesar de ser uma excelente ferramenta, o AG tem um alto custo computacional devido ao elevado número de avaliações necessárias para a obtenção de uma solução factível. Além disso, em otimização estrutural, a avaliação de uma solução candidata pode resultar na resolução de um sistema de equações. A solução deste sistema na maioria das vezes demanda alto custo computacional. Dessa forma, a fim de reduzir o custo computacional, uma técnica de reanálise por aproximação combinada é utilizada. Esta técnica reduz a dimensão do sistema para um número de vetores base previamente definido. Na formulação padrão, a escolha do número de vetores base não é feita de forma automática. Então, o método de reanálise será usado em um esquema adaptativo, proposto aqui, em que, o número de vetores base serão escolhidos e alterados ao longo do processo de otimização. Com o objetivo de obter o menor número possível de análises completas, a matriz de rigidez inicial também será alterada ao longo do processo de otimização. Para ilustrar a eficácia da formulação proposta, exemplos clássicos de otimização estrutural são analisados. Os exemplos numéricos mostram que o esquema adaptativo proposto fornece resultados com boa precisão e, em algumas situações, melhores, ou seja, menor peso com menor custo computacional, comparados com outras estratégias da literatura. / Genetic Algorithms (GA’s) are tools of great computational power when employed in optimization problems for which the solution cannot be obtained by a trivial way. Despite being an effective tool, GA has a high computational cost due to the high number of structural analysis needed to obtain a feasible solution. Furthermore, in structural optimization, the evaluation of a candidate solution may lead to the solution of a system of equations. The solution of such a system in some cases demands a great computational effort. In this way, in order to reduce the high computational cost, a reanalysis technique using the combined approximations method is employed. This technique reduces the dimension of the system to a number of basis vectors previously defined. In the standard formulation, the choice of the number of basis vectors is not carried out in an automatic way. Hence, the reanalysis technique will be employed in a proposed adaptive scheme for which the number of basis vectors will be chosen and modified along with the optimization process. With the objective of obtaining the smallest number of complete analyses, the initial stiffness matrix will also be modified along with the optimization process. In order to illustrate the effectiveness of the proposed formulation, classical examples of structural optimization are analyzed. The numerical examples reveal that the proposed adaptive scheme provides accurate and, in some cases, better results, i.e. lowest weight with lowest computational cost, when compared to other schemes in the literature.
217

Stochastic models of steady state and dynamic operation of systems of congestion

Erasmus, Gert Botha 18 October 2006 (has links)
(i) The thesis sets out to address the problematic phenomenon of Systems of Congestion via Basic Queueing Theory. The theory, and its application in practice, appears to be a field of study which is the common domain of “theorists” and “practitioners”. (ii) This professional dichotomy has come about due to diverging interests in that one group is mainly interested in the purity of mathematical modelling, and the other group is motivated to use modelling, which conveniently employs applications oriented solutions. (iii) The schism between the groups has been accentuated by the “practitioners” who in addition to having an interest in steady state system behaviour make use of methods of modelling of the transient operation of complex Systems of Congestion. (iv) At the outset the thesis demonstrates how closed form solutions are obtained for steady state and transient state operation of a selection of Systems of Congestion. The attendant mathematical derivations are elegant and intricate. (v) Having revealed the limited utility of closed-form solutions the thesis proceeds to investigate the feasibility of using dynamical systems theory to study the transient behaviour of complex Systems of Congestion. (vi) The creation of Chaos Theory in recent decades suggests that it may be employed as a useful tool in analysing Systems of Congestion. Iterative Chaos Theory methods of orbit generation for complete Systems of Congestion are therefore examined. The use of such orbit generation methods is found to be satisfactory for simple Systems of Congestion. More than a perfunctory knowledge of chaos mapping is however required. The simplicity of modelling is emphasized. (vii) Based on the results of benchmarking the creation of dynamic system orbits against an existing simulation method, the research advances to modelling of the transient operation of complex systems. Once again the iterative method of orbit generation displays the ease of modelling while simultaneously unfolding system dynamics graphically. (viii) One may hopefully contend that a tool of eminent utility has been developed to aid practitioners in studying and optimizing Systems of Congestion. / Thesis (PhD (Industrial Engineering))--University of Pretoria, 2006. / Industrial and Systems Engineering / Unrestricted
218

Statistical Analysis of Steady State Response in RF Circuits via Decoupled Generalized Polynomial Chaos

Nabavi, Seyed Ghavamoddin January 2016 (has links)
One of the major factors in RF circuit design is the ability to predict the performance of these circuits in the presence of uncertainty in the key design parameters. This is referred to as uncertainty quantification in the mathematical literature. Uncertainty about the key design parameters arises mainly from the difficulty of controlling the physical or geometrical features of the underlying design, especially at the nanometer level. With the constant trend to scale down the process feature size, uncertainty quantification becomes crucial in shortening the design time. This thesis presents a new approach to statistically characterize the variability of the Harmonic Balance analysis and its application to Intermodulation distortion analysis in the presence of uncertainty in the design parameters. The new approach is based on the concept of Polynomial Chaos (PC) and Stochastic Galerkin (SG) methods. However, unlike the traditional PC, the proposed approach adopts a new mathematical formulation that decouples the Polynomial Chaos problem into several problems whose sizes are equal to the size of the original Harmonic Balance problem. The proposed algorithm produces significant CPU savings with equivalent accuracy to traditional Monte Carlo and standard PC approaches.
219

Preservation of Nitric Oxide Availability as Nitrite and Nitrosothiols

Madrasi, Kumpal J 09 November 2012 (has links)
Nitric Oxide (NO) has been known for long to regulate vessel tone. However, the close proximity of the site of NO production to “sinks” of NO such as hemoglobin (Hb) in blood suggest that blood will scavenge most of the NO produced. Therefore, it is unclear how NO is able to play its physiological roles. The current study deals with means by which this could be understood. Towards studying the role of nitrosothiols and nitrite in preserving NO availability, a study of the kinetics of glutathione (GSH) nitrosation by NO donors in aerated buffered solutions was undertaken first. Results suggest an increase in the rate of the corresponding nitrosothiol (GSNO) formation with an increase in GSH with a half-maximum constant EC50 that depends on NO concentration, thus indicating a significant contribution of ∙NO2 mediated nitrosation in the production of GSNO. Next, the ability of nitrite to be reduced to NO in the smooth muscle cells was evaluated. The NO formed was inhibited by sGC inhibitors and accelerated by activators and was independent of O2 concentration. Nitrite transport mechanisms and effects of exogenous nitrate on transport and reduction of nitrite were examined. The results showed that sGC can mediate nitrite reduction to NO and nitrite is transported across the smooth muscle cell membrane via anion channels, both of which can be attenuated by nitrate. Finally, a 2 – D axisymmetric diffusion model was constructed to test the accumulation of NO in the smooth muscle layer from reduction of nitrite. It was observed that at the end of the simulation period with physiological concentrations of nitrite in the smooth muscle cells (SMC), a low sustained NO generated from nitrite reduction could maintain significant sGC activity and might affect vessel tone. The major nitrosating mechanism in the circulation at reduced O2 levels was found to be anaerobic and a Cu+ dependent GSNO reduction activity was found to deliver minor amounts of NO from physiological GSNO levels in the tissue.
220

QUANTIFICATION OF THERMAL BRIDGING EFFECTS IN COLD-FORMED STEEL WALL ASSEMBLIES

Kapoor, Divyansh 08 April 2020 (has links)
Thermal bridging can be defined as the phenomenon where a structural element spanning the building envelope acts like a thermal pathway which collects and moves energy (heat) from the interior to the exterior of the structure. CFS construction, due to the high thermal conductivity of steel with respect to its surrounding structural components and repetitive nature of framing, is highly prone to thermal bridging. Thermal bridging significantly alters the thermal performance of wall assemblies. Hence, the objective of this research project was to quantify the magnitude of energy loss through cold-formed steel (CFS) stud wall assemblies at a component level to lay the groundwork for future works that promote sustainable, energy-efficient, and improved building design recommendations. Therefore, a parametric evaluation was performed using ISO 10211:2007, Annex A, conforming heat transfer software Blocon Heat3 version 8 to generate the data required for analysis. 80 unique wall assemblies and the impact of selected parameters on the overall thermal transmittance of the wall assembly were studied as part of the parametric evaluation. The key variables of the study are steel thickness, stud depth, stud spacing, cavity insulation R-value, external insulation thickness (R-value), and fastener diameter and length. Based on the results of the analysis, effects of increasing stud and track thickness, depth, and stud spacing have been discussed in the form of trends in overall heat flow and linear thermal transmittance coefficient values. Additionaly, effects of increasing external insulation have been discussed by addressing changes in heat flow.

Page generated in 0.0633 seconds