Spelling suggestions: "subject:"nonsteady state"" "subject:"unsteady state""
201 |
Hipersuperfícies tipo-espaço com curvatura de ordem superior constante no Espaço de Sitter. / Space-type hypersurfaces with higher order curvature in the Sitter Space.SANTOS, Fábio Reis dos. 07 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-07T21:04:25Z
No. of bitstreams: 1
FÁBIO REIS DOS SANTOS - DISSERTAÇÃO PPGMAT 2013..pdf: 716996 bytes, checksum: 97f7fb742c257421cce66bdb68b5d76e (MD5) / Made available in DSpace on 2018-08-07T21:04:25Z (GMT). No. of bitstreams: 1
FÁBIO REIS DOS SANTOS - DISSERTAÇÃO PPGMAT 2013..pdf: 716996 bytes, checksum: 97f7fb742c257421cce66bdb68b5d76e (MD5)
Previous issue date: 2013-03 / Capes / Neste trabalho, desenvolvemos as Fórmulas Integrais tipo-Minkowski para hipersuperfícies tipo-espaço, compactas com bordo imersas no espaço de Sitter S
n+1 1 e possuindo alguma curvatura de ordem superior constante. Aplicamos estas, para estabelecer uma relação entre a curvatura média e a geometria do bordo quando se trata
de uma esfera geodésica contida em um hiperplano do Steady State space Hn+1 ⊂ S
n+1. / In this work we develop Minkowski-type formulae for compact spacelike immersed
hypersurfaces with boundary and having some constant higher order mean curvature
in de Sitter space S n+11. We apply them to establish a relation between the mean
curvature and the geometry of the boundary, when it is a geodesic sphere contained
into a horizontal hyperplane of the Steady State space Hn+1 ⊂ S n+1 1.
.
|
202 |
Natureza e crescimento econômico : como uma mudança de paradigma pode contribuir para uma economia ecologicamente responsávelSchütz, Felipe January 2017 (has links)
O presente trabalho discute como uma mudança de paradigma econômico pode contribuir para uma economia ecologicamente responsável. Em linha com esse propósito num primeiro momento são apresentados os sinais da necessidade dessa mudança. Nessa primeira parte são apresentadas algumas das insuficiências das ferramentas econômicas tradicionais para uma harmonização com o meio ambiente. Num segundo momento são discutidas ideias alternativas para a abordagem da relação entre crescimento econômico e meio ambiente: economia e entropia, estado estacionário e prosperidade sem crescimento. Nessas discussões foi dada ênfase aos estudos dos economistas Nicholas Georgescu-Roegen, Herman Daly e Timothy Jackson. Na parte seguinte são discutidas as implicações éticas para o desenvolvimento de um modelo econômico ecologicamente responsável. Por fim, por meio do estudo da Comissão Stiglitz-Sen-Fitoussi, do Índice de Progresso Social e de Índices de Felicidade argumenta-se como novas medidas de desenvolvimento econômico, social e ambiental podem contribuir para um paradigma econômico ecologicamente responsável. / This study discuss how a change of economic paradigm could contribute to an environmentally responsible economy. In order to do this, at first, the signs of the need for this paradigm shift are presented. On this matter the shortcomings of traditional economic tools for harmonization with the environment are analysed. Secondly, alternative ideias to address the relationship between economic growth and the environment, such as economy and entropy, steady state, and prosperity without growth are discussed. In these discussions the studies of economists like Nicholas Georgescu-Roegen, Herman Daly and Timothy Jackson, are emphasized. In the next part of this study the ethical implications for the development of an environmentally responsible economic model are approached. Finally, through the study of the Stiglitz-Sen-Fitoussi Comssion, the Social Progress Index and Happiness Index, it is shown how new measures of economic, social and environmental development could contribute to an environmentally responsible economic paradigm.
|
203 |
Desenvolvimento da técnica de precessão livre no estado estacionário para aumento da razão sinal ruído em espectros de RMN de alta resolução / Use of steady state free precession (SSFP) to enhance signal to noise ratio in high resolution NMRPoliana Macedo dos Santos 16 March 2009 (has links)
Neste trabalho realizou-se uma analise detalhada das vantagens e desvantagens da sequencia de Precessao Livre no Estado Estacionario (Steady State Free Precession - SSFP) para aquisicao rapida de espectros de Ressonancia Magnetica Nuclear (RMN) de 13C. O regime de SSFP e obtido atraves da aplicacao de um trem de pulsos de mesma fase, duracao e intensidade, separados por um intervalo de tempo (Tp) menor que os tempos de relaxacao longitudinal (T1) e transversal (T2) da amostra. Nestas condicoes e possivel acumular dezenas de espectros por unidade de T1, proporcionando um incremento significativo na razao sinal/ruido (s/r) do espectro. Ao comparar os resultados obtidos com as sequencias de SSFP e convencional (pulsos de 90 graus e T 5T1 p >= ), verificou-se que a SSFP apresentou um ganho medio de 30 vezes no tempo de analise para uma mesma s/r. No entanto, os espectros obtidos com a SSFP apresentam anomalias de fase e amplitude do sinal, decorrente da refocalizacao da magnetizacao na forma de um eco de spin. Comparou-se tambem a SSFP com a sequencia padrao usada para obtencao de espectros de 13C, que utiliza pulsos de 30 graus e Tp = 1.38s. Neste caso os ganhos da SSFP foram menores (5,5 vezes no tempo de analise para uma mesma s/r) verificando que a sequencia padrao utiliza a vantagem da SSFP (Tp < T1, T2). A formacao do eco e, consequente das anomalias de fase nao sao observadas na sequencia padrao, pois a aquisicao do sinal e truncada em 0,9s, e a ciclagem de fase dos pulsos reduz a formacao do eco, por levar a uma perda de coerencia do sinal SSFP. Neste trabalho tambem analisou-se os metodos propostos por Rudakov, Freeman e Hill e Schwenk para supressao destas anomalias nos espectros de RMN 13C quando adquiridos no regime de SSFP. Os resultados demonstraram que a aplicacao destas metodologias proporciona uma melhora significativa na qualidade do espectro. No entanto, verificou-se que nenhum metodo foi capaz de suprimir totalmente as anomalias de fase e amplitude do sinal. / It was performed a detailed analysis of the advantages and disadvantages of Steady State Free Precession (SSFP) sequence for a rapid acquisition of 13C Nuclear Magnetic Resonance (NMR) spectra. The SSFP regime is obtained by the application of a pulse train with the same phase, duration and intensity, separated by a time interval (Tp) shorter than the transverse (T2) and longitudinal (T1) relaxation times. In these conditions it is possible to accumulate tens of spectra per units of T1, providing a significant increase in the spectrum signal-to-noise ratio (s/n). By comparing the spectra obtained by SSFP and conventional pulse sequence (90 degree pulse and T 5T1 p >= ) it was noted that SSFP shows an average gain of 30 times in analysis time for the same s/n. However, the SSFP spectra show phase and intensity anomalies due to the refocusing of the magnetization, generating a spin echo. We also compared the SSFP with the standard 13C pulse sequence, that uses a 30 degree pulses and Tp = 1.38 s. In this comparison the SSFP gain were small (5,5 times in analysis time for the same s/n), because the standard sequence also uses the advantage of SSFP (Tp < T1, T2). The echo signal and the phase anomalies are not observed in the standard sequence because the signal acquisition is truncated at 0.9s and the cycling of the pulse phase, that partially destroy the SSFP coherence. We also analyzed the methods proposed by Rudakov, Freeman and Hill and Schwenk to suppress those anomalies in the 13C NMR spectrum when acquired in SSFP regime. The results showed that the application of these methodologies provides a significant improvement in the spectrum quality. However, it was verified that none of the methods were able to completely eliminate the phase and intensity anomalies.
|
204 |
Predição da intensidade de corrida em máxima fase estável de lactato a partir da velocidade de crítica em atletas fundistas de alto rendimento : relações com performances /D'Angelo, Ricardo Antonio. January 2008 (has links)
Orientador: Claudio Alexandre Gobatto / Banca: Denise Vaz de Macedo / Banca: Miguel de Arruda / Resumo: A corrida de longa distância é considerada um fenômeno sócio-esportivo recente e de grande impacto na vida moderna. No segmento dos atletas profissionais, a busca por índices confiáveis de avaliação aeróbia, bem como programas de treinamento eficazes e de fácil aplicabilidade é contínua. O tema central desse trabalho foi fornecer uma ferramenta adequada e precisa para se determinar o atual estado da forma do atleta de fundo de alto rendimento, bem como predizer intensidades de carga confiáveis para treinamento e competição. Para tanto, foi estabelecida uma relação matemática entre dois testes de avaliação aeróbia: Máxima Fase Estável de Lactato (MFEL) e Velocidade Crítica (Vcrit). Nove atletas fundistas de alto rendimento, que participaram de seleções nacionais em competições internacionais, tomaram parte no experimento. As melhores marcas pessoais desses atletas correspondem à média ± erro padrão de 91,54 ± 0,93 % da velocidade de corrida do recorde mundial (considerados até o ano de 2007) de sua prova específica. Os testes foram realizados na fase final do período de treinamento de preparação geral. Inicialmente foi aplicado o teste de Vcrit nas distâncias de 800m, 1500m, 3.000m e 5.000m, realizadas aleatoriamente e em dias subseqüentes. A seguir, foi aplicado o teste clássico de MFEL, com duração de 30 min de corrida contínua e coleta de amostras de sangue (25μL) a cada 5 min, para determinação das concentrações de lactato (YSI 1500 sport). Para oito atletas a MFEL ocorreu na intensidade correspondente a 98% da Vcrit, sendo o restante obtido a 90% da Vcrit. A Vcrit (19,1±0,1 km/h) superestimou (p=0,005) os valores de MFEL (18,7±0,2 km/h). Houve correlação significativa entre Vcrit e MFEL (p=0,002, r=0,88). A equação obtida pela regressão foi MFEL=0,9673*Vcrit+0,2061, com erro padrão da estimativa de 0,236...(Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The purpose of this study was to establish a mathematical relationship between the MLSS and the critical speed (CS) in high performance distance runners. Nine male high performance athletes were tested (28±2years), with personal bests of their specific events corresponding a mean ± ESE of 91,54 ± 0,93 % of world record running speed (updated 2007). The athletes were submitted to the CS test, which is the linear regression of the distances (800, 1.500, 3.000 and 5.000m) and their respective time. The CS was determined by the angular coefficient of the linear regression. For all athletes, the regression coefficient (R2) was equal to 1,0. The predicted workloads for the MLSS determination were: 100, 98, 95 and 90% of the CS, randomized and in a continuous way in subsequent days. In this test, the athletes run for 30 min, and it was collected blood samples (25μL) at each 5 min, to determine the lactate concentration (YSI 1500 sport). It was determined stable the non lactate variation higher than 1,0 mmol/L between the 10th and 30th minute. The MLSS has occurred for 8 athletes on the 98% intensity of CS and for 1 athlete on the 90%. The CS (19,1±0,1 km/h) overestimated (p=0,005) the MLSS values (18,7±0,2 km/h). There was significant correlation between CS and MLSS (p=0,002, r=0,88). The regression equation was MLSS=0,9673*CS+0,2061, with estimated standard error of 0,236. There was excellent application of distances to determine the CS in elite distance runners, as well as the parameter accuracy to the "gold standard" intensity verified with the MLSS test. These responses, associated with the low standard estimated error, suggest safety at the MLSS determination through the predicted equation proposed. / Mestre
|
205 |
Análise de parâmetros de força e padrão de nado de ratos controles e obesos, a partir de um sistema de aquisição de sinais em natação atada : Influência da intensidade do exercício e da densidade corporal /Reis, Ivan Gustavo Masselli dos. January 2010 (has links)
Orientador: Claudio Alexandre Gobatto / Banca: Eliete Luciano / Banca: René Brenzikofer / Resumo: No modelo de natação para ratos, a associação das intensidades de exercício determinadas por meio da lactacidemia com as suas respectivas sobrecargas são passíveis de crítica, uma vez que a quantificação dos pesos atados ao animal pode não representar efetivamente o esforço real do animal para sua manutenção na superfície da água, devido a esta metodologia sofrer influência da densidade corporal e dos padrões de nado apresentados pelos animais. O principal objetivo desse estudo foi desenvolver um modelo de natação atada para roedores o qual permitiu a determinação direta e em tempo real da força de nado realizada pelo animal e verificar a possível existência de diferentes padrões de nado. Além disso, foi feita a discriminação da densidade corporal em animais controles e induzidos à obesidade, com intuito de destacar consistentemente a influência da flutuabilidade na natação. Foram utilizados 24 rattus norvegicus albinus, machos, com 150 dias de idade, divididos em animais controles e induzidos à obesidade por meio da redução de ninhada somada a uma dieta hiperlipídica. Os animais tiveram a densidade corporal determinada por meio de um aparato de pesagem hidrostática utilizando um sistema de aquisição de dados. Posteriormente todos os ratos foram avaliados no teste de máxima fase estável de lactato adaptado para natação atada. Por meio do modelo experimental de indução a obesidade, foi possível induzir aumento significativo do peso e volume corporal, alem da redução da densidade corporal dos animais no grupo obeso. As avaliações de animais controles e obesos revelaram a influência significativa da densidade corporal na determinação das intensidades de exercício, principalmente quando as cargas foram expressas em valores absolutos. Estudos que fazem uso do modelo de natação para ratos, principalmente de caráter longitudinal... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: In the swimming model for rats, the association between the blood lactate concentration with the exercise intensity could be criticized once the workload quantification could not represent effectively the effort performed by the rat to keep himself on the surface, due to it be affected by the body density and the swimming patterns present by the animals. Thus, the mainly objective of this study was develop a apparatus for tethered swimming for rats, that allows the monitoring of swimming force during all exercise time and to verify the existence of different sorts of swimming patterns. 24 male rattus novergicus albinus, with 150 days of age were used, divided in control and obese induced animals by a nest reduction and hyper-lipid diet. All animals had their body density determined by hydrostatic weighing with an acquiring data device. Later the animals were evaluated in maximal lactate steady state test adapted to the tethered swimming. Was possible to induce significant weight and body volume increase in the obese group beside the reduction of the body density. The assessment of control and obese animals reveled significant body density influence in the workload determination, mainly when the workload was expressed in absolute values. Tethered swimming model allowed the investigation of statistic parameters of the data signal, which showed that the signal amplitude varied in function of the intensity, however the dispersion did not. Also the visual analyses of the force kinetic allowed the identification of 4 swimming patterns and the speculation about the reason and consequences of it incidence. Therefore animals that present such swimming patterns which can influence the assessment should be removed from the sample. Studies that make use of the swimming model for rats, mainly those of longitudinal duration or that make use of interventions that may change the animal's body composition...(Complete abstract click electronic access below) / Mestre
|
206 |
Metodologia para quantificação e acompanhamento de indicadores-chave de desempenho operacionalGiaquinto, Cláudia Daniela Melo January 2017 (has links)
Indicadores-chave de desempenho (KPIs) exercem um papel de extrema importância na indústria de processos, auxiliando na tomada de decisão. No entanto, para serem representativos precisam ser calculados de forma confiável. O presente trabalho propôs uma metodologia para o cálculo destes KPIs com base em técnicas de detecção do estado estacionário, remoção de ruído, propagação de erros e análise de sensibilidade. Estes KPIs foram apresentados, de acordo com o que consta na literatura, em uma nova ferramenta gráfica de acompanhamento proposta pelos autores, denominada StatSSCandlePlot. O StatSSCandlePlot apresenta os KPIs no padrão candlestick, que é bastante utilizado no mercado de ações, incluindo informações adicionais. O grande diferencial do StatSSCandlePlot é que os indicadores e suas respectivas propriedades exibidas são calculadas a partir de técnicas que englobam o tratamento de dados e análises estatísticas. A metodologia proposta foi aplicada em um estudo de caso de um chuveiro contendo dois princípios de aquecimento, gás e energia elétrica. Para este estudo, foi criado o Índice de Qualidade do Banho (IQB), que é um indicador dependente da temperatura e da vazão de saída, cujos dados foram avaliados em três cenários distintos, o primeiro quando o sistema é submetido a distúrbios na vazão, no segundo ocorre uma queda na temperatura da água fria e no último, o IQB foi avaliado quando o sistema foi submetido a distúrbios na vazão sob uma nova estratégia de controle da planta. A partir do StatSSCandlePlot, foi possível identificar as tendências do indicador nos diferentes cenários, a parcela de cada janela no estado estacionário, os valores a serem considerados do indicador e, de forma complementar, identificar a variável que mais influenciou na variação do indicador, através da análise de sensibilidade. / Key performance indicators (KPIs) play an extremely important role in the process industry, aiding in decision-making. However, to be representative they need to be calculated reliably. The present work proposed a methodology for the calculation of these KPIs based on steady state detection, noise removal, error propagation and sensitivity analysis techniques. These KPIs were presented, as far as it is known, in a new graphical KPIs monitoring tool proposed by the authors, called StatSSCandlePlot. StatSSCandlePlot introduces KPIs in the candlestick standard, which is widely used in the stock market, including additional information. The major difference of StatSSCandlePlot is that the indicators and their respective displayed properties are calculated from techniques that encompass data processing and statistical analysis. The proposed methodology was applied in a case study of a shower containing two principles of heating, gas and electric energy. For this study the Bath Quality Index (BQI) was created, which is a temperature and output flow dependent indicator, whose data were evaluated in three different scenarios, the first one when the system was submitted to flow disturbances, in the second one, a decrease in the temperature of the cold water and in the last one, the IQB was evaluated when the system was submitted to disturbances in the flow under a new strategy of control of the plant. From the StatSSCandlePlot, it was possible to identify the trends of the indicator in the different scenarios, the portion of each window in the steady state, the values to be considered in the indicator and, in a complementary way, to identify the variable that most influenced the variation of the indicator, through the sensitivity analysis.
|
207 |
Algoritmos de Geração de Protótipos Para Bases DesbalanceadasOliveira, Dayvid Victor Rodrigues de 25 February 2014 (has links)
Submitted by Lucelia Lucena (lucelia.lucena@ufpe.br) on 2015-03-06T19:37:29Z
No. of bitstreams: 2
DISSERTAÇÃO Dayvid Victor Rodrigues de Oliveira.pdf: 798881 bytes, checksum: 3b4ac40fda11573b025340c2b03e8903 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-06T19:37:29Z (GMT). No. of bitstreams: 2
DISSERTAÇÃO Dayvid Victor Rodrigues de Oliveira.pdf: 798881 bytes, checksum: 3b4ac40fda11573b025340c2b03e8903 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2014-02-25 / Técnicas de redução de instâncias são técnicas usadas para reduzir a quantidade de
instâncias em um conjunto de dados. Estas técnicas podem atuar removendo dados redundantes
ou gerando novos dados. As instâncias resultantes são chamadas de protótipos. Técnicas de
seleção de protótipos, são técnicas de redução de instâncias que realizam esta tarefa selecionando
um subconjunto do conjunto de dados original. Já as técnicas de geração de protótipos, são
técnicas de redução de instâncias que criam instâncias que não necessariamente pertencem ao
conjunto de dados original. Algoritmos evolucionários têm sido frequentemente utilizados em
seleção de protótipos, tal abordagem é chamada de evolutionary prototype selection. Algumas
bases de dados do mundo real possuem muitas instâncias de uma classe, a classe majoritária,
e poucas de outra, classe minoritária, estas bases são chamadas de bases desbalanceadas. Em
tais bases, muitos algoritmos de redução de instâncias se tornam inviáveis, retornando muitas
instâncias da classe majoritária e poucas, ou até nenhuma, da classe minoritária. Este efeito é
ainda mais acentuado em técnicas de remoção de ruídos. Neste trabalho, são propostas duas
técnicas de geração de protótipos que minimizam o efeito de desbalanceamento entre classes.
A primeira proposta é o Creative Steady-State Memetic Algorithm (CSSMA), um algoritmo de
geração de protótipos que utiliza um algoritmo evolucionário, incorporando uma busca local, para
encontrar o conjunto de protótipos artificiais que maximiza a função de aptidão. Esta técnica é
inspirada no Steady-State Memetic Algorithm, uma das melhores técnicas de seleção de protótipos
na literatura, tanto em redução quanto em classificação. A segunda proposta é o Adaptive Self-
Generating Prototypes (ASGP), esta técnica gera instâncias levando em consideração o tamanho
do maior agrupamento de cada classe. O ASGP é uma derivação do Self-Generating Prototypes
(SGP), considerada uma das técnicas de geração de protótipos de maior poder de generalização,
sendo, porém, ineficiente em bases desbalanceadas. As bases de dados usadas nos experimentos
são do módulo imbalanced datasets do KEEL software, dicotômicas, e com diferentes níveis de
desbalanceamento. Cada base é dividida em 5 partições para aplicação do k-fold cross validation
(k=5). As métricas usadas para avaliar a performance dos algoritmos foram a area under the ROC
curve (AUC) e a taxa de redução. Para comparar os resultados, foi utilizado o teste estatístico de
Wilcoxon. Os resultados mostram que o CSSMA foi superior em taxa de acerto, AUC, a outros
algoritmos evolucionários de redução de instâncias recentemente propostos. O ASGP também
obteve uma AUC superior ao Self-Generating Prototypes 2, versão mais atual do SGP.
|
208 |
A utilização da resposta auditiva de estado estável para estimar limiares auditivos em indivíduos com perda auditiva neurossensorial / Utilization of auditory steady state response to estimate the auditory threshold in individuals with sensorineural hearing lossJosilene Luciene Duarte 26 March 2007 (has links)
O diagnóstico precoce da perda auditiva tem sido cada vez mais freqüente em virtude dos programas de saúde auditiva que estão sendo implantados em todo o país. Existe, contudo, a necessidade de técnicas e procedimentos que ajudem a identificar, com maior precisão, a presença e o grau da mesma. A Resposta Auditiva de Estado Estável (RAEE) é um procedimento eletrofisiológico que, ao contrário do Potencial Evocado Auditivo de Tronco Encefálico (PEATE) realizado com estímulo tone burst, possibilita avaliar, ao mesmo tempo limiares auditivos com especificidade por freqüência e por orelha, reduzindo assim o tempo do exame. Além disso, ele permite a estimulação até níveis próximos a 130 dBHL, podendo assim medir a audição residual. O objetivo deste estudo foi verificar a aplicabilidade da RAEE para determinar os limiares auditivos nos diferentes graus de perda auditiva neurossensorial. Foram avaliados 65 indivíduos com perda auditiva neurossensorial, sendo que 48 apresentaram alteração neurossensorial (coclear) de grau leve até profundo, e idades entre sete e 30 anos; e 17 apresentaram alteração neurossensorial (Neuropatia Auditiva/Dessincronia Auditiva) e idades entre 0,6 e cinco anos. A avaliação foi composta por Audiometria Tonal Liminar (ATL) e pesquisa da RAEE para o grupo com alteração neurossensorial (coclear) e somente a pesquisa da RAEE para o grupo com alteração neurossensorial (NA/DA). Os resultados demonstraram que, nos indivíduos com perda auditiva neurossensorial (coclear), houve associação significante (p<0,01) entre os limiares obtidos na ATL e RAEE para as freqüências de 0,5 a 4 kHz, ocorrendo uma maior concordância para graus de deficiências auditivas mais acentuadas. Já na perda auditiva neurossensorial (NA/DA), a RAEE mostrou ausência de resposta na maioria dos indivíduos avaliados. Concluímos que a RAEE pode predizer os limiares da ATL com maior precisão para os graus de perda auditiva mais acentuados, e que a utilização deste procedimento não mostrou informações adicionais que podem contribuir para o diagnóstico da perda auditiva neurossensorial (NA/DA). / The diagnosis of hearing loss in the first months of life has been increasingly frequent due to hearing health programs established throughout the country. Thus, techniques and procedures should be developed for accurate identification of the presence and severity of hearing loss, in a population whose motor and cognitive development does not allow response to behavioral methods. The auditory steady state response (ASSR) is an electrophysiological procedure which, different from the brainstem evoked response audiometry (BERA) conducted with tone burst stimuli, allows the establishment of hearing thresholds at multiple frequencies and for both ears, thus reducing the examination time. Moreover, it allows measurement of residual hearing due to the possibility of stimulation at levels close to 130 dBHL. Therefore, the present study aimed to investigate the applicability of ASSR for establishment of hearing thresholds in different severities of sensorineural hearing loss. A total of 65 individuals with sensorineural hearing loss were evaluated, among whom 48 presented mild to deep sensorineural disorder (cochlear), at the age range 7 to 30 years; and 17 presented sensorineural disorder (neuropathy/hearing dyssynchrony) aged 0.6 to 5 years. The evaluation comprised pure-tone threshold audiometry (PTTA) and ASSR analysis for the group with deep sensorineural disorder (cochlear) and only ASSR analysis for the group with sensorineural disorder (neuropathy/hearing dyssynchrony). The results demonstrated that, for individuals with deep sensorineural hearing loss (cochlear), there was significant association (p<0.01) between the thresholds obtained by PTTA and ASSR at frequencies from 0.5 to 4 kHz, with higher agreement in cases with more severe hearing loss. On the other hand, for the sensorineural hearing loss (neuropathy/hearing dyssynchrony), the ASSR was absent in most individuals analyzed. It was concluded that there is significant association between the thresholds obtained by PTTA and ASSR, and that the utilization of this procedure did not provide additional information that might contribute to the diagnosis of sensorineural hearing loss (neuropathy/hearing dyssynchrony), when compared to BERA
|
209 |
Um método de reanálise adaptativa para otimização estrutural usando um algoritmo genético não-geracionalLoureiro, Michelli Marlane Silva 26 February 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-05-05T14:31:22Z
No. of bitstreams: 1
michellimarlanesilvaloureiro.pdf: 1130544 bytes, checksum: 086b7a6420ee519ed479ec2df829bc04 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-06-07T15:38:53Z (GMT) No. of bitstreams: 1
michellimarlanesilvaloureiro.pdf: 1130544 bytes, checksum: 086b7a6420ee519ed479ec2df829bc04 (MD5) / Made available in DSpace on 2016-06-07T15:38:53Z (GMT). No. of bitstreams: 1
michellimarlanesilvaloureiro.pdf: 1130544 bytes, checksum: 086b7a6420ee519ed479ec2df829bc04 (MD5)
Previous issue date: 2016-02-26 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Algoritmos Genéticos (AG’s) são ferramentas de grande poder computacional quando utilizadas
em problemas de otimização em que a solução não pode ser obtida de forma trivial.
Apesar de ser uma excelente ferramenta, o AG tem um alto custo computacional devido
ao elevado número de avaliações necessárias para a obtenção de uma solução factível.
Além disso, em otimização estrutural, a avaliação de uma solução candidata pode resultar
na resolução de um sistema de equações. A solução deste sistema na maioria das vezes
demanda alto custo computacional. Dessa forma, a fim de reduzir o custo computacional,
uma técnica de reanálise por aproximação combinada é utilizada. Esta técnica reduz a dimensão
do sistema para um número de vetores base previamente definido. Na formulação
padrão, a escolha do número de vetores base não é feita de forma automática. Então, o
método de reanálise será usado em um esquema adaptativo, proposto aqui, em que, o número
de vetores base serão escolhidos e alterados ao longo do processo de otimização. Com
o objetivo de obter o menor número possível de análises completas, a matriz de rigidez
inicial também será alterada ao longo do processo de otimização. Para ilustrar a eficácia
da formulação proposta, exemplos clássicos de otimização estrutural são analisados.
Os exemplos numéricos mostram que o esquema adaptativo proposto fornece resultados
com boa precisão e, em algumas situações, melhores, ou seja, menor peso com menor
custo computacional, comparados com outras estratégias da literatura. / Genetic Algorithms (GA’s) are tools of great computational power when employed in optimization
problems for which the solution cannot be obtained by a trivial way. Despite
being an effective tool, GA has a high computational cost due to the high number of
structural analysis needed to obtain a feasible solution. Furthermore, in structural optimization,
the evaluation of a candidate solution may lead to the solution of a system of
equations. The solution of such a system in some cases demands a great computational
effort. In this way, in order to reduce the high computational cost, a reanalysis technique
using the combined approximations method is employed. This technique reduces the dimension
of the system to a number of basis vectors previously defined. In the standard
formulation, the choice of the number of basis vectors is not carried out in an automatic
way. Hence, the reanalysis technique will be employed in a proposed adaptive scheme for
which the number of basis vectors will be chosen and modified along with the optimization
process. With the objective of obtaining the smallest number of complete analyses, the
initial stiffness matrix will also be modified along with the optimization process. In order
to illustrate the effectiveness of the proposed formulation, classical examples of structural
optimization are analyzed. The numerical examples reveal that the proposed adaptive
scheme provides accurate and, in some cases, better results, i.e. lowest weight with lowest
computational cost, when compared to other schemes in the literature.
|
210 |
Stochastic models of steady state and dynamic operation of systems of congestionErasmus, Gert Botha 18 October 2006 (has links)
(i) The thesis sets out to address the problematic phenomenon of Systems of Congestion via Basic Queueing Theory. The theory, and its application in practice, appears to be a field of study which is the common domain of “theorists” and “practitioners”. (ii) This professional dichotomy has come about due to diverging interests in that one group is mainly interested in the purity of mathematical modelling, and the other group is motivated to use modelling, which conveniently employs applications oriented solutions. (iii) The schism between the groups has been accentuated by the “practitioners” who in addition to having an interest in steady state system behaviour make use of methods of modelling of the transient operation of complex Systems of Congestion. (iv) At the outset the thesis demonstrates how closed form solutions are obtained for steady state and transient state operation of a selection of Systems of Congestion. The attendant mathematical derivations are elegant and intricate. (v) Having revealed the limited utility of closed-form solutions the thesis proceeds to investigate the feasibility of using dynamical systems theory to study the transient behaviour of complex Systems of Congestion. (vi) The creation of Chaos Theory in recent decades suggests that it may be employed as a useful tool in analysing Systems of Congestion. Iterative Chaos Theory methods of orbit generation for complete Systems of Congestion are therefore examined. The use of such orbit generation methods is found to be satisfactory for simple Systems of Congestion. More than a perfunctory knowledge of chaos mapping is however required. The simplicity of modelling is emphasized. (vii) Based on the results of benchmarking the creation of dynamic system orbits against an existing simulation method, the research advances to modelling of the transient operation of complex systems. Once again the iterative method of orbit generation displays the ease of modelling while simultaneously unfolding system dynamics graphically. (viii) One may hopefully contend that a tool of eminent utility has been developed to aid practitioners in studying and optimizing Systems of Congestion. / Thesis (PhD (Industrial Engineering))--University of Pretoria, 2006. / Industrial and Systems Engineering / Unrestricted
|
Page generated in 0.0454 seconds