• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 148
  • 12
  • 9
  • 5
  • 1
  • Tagged with
  • 176
  • 119
  • 40
  • 30
  • 29
  • 29
  • 26
  • 25
  • 20
  • 19
  • 18
  • 18
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Controle não linear aplicado a dispositivos FACTS em sistemas elétricos de potência / Nonlinear control applied to FACTS devices in power systems

Daniel Souto Siqueira 24 April 2012 (has links)
O TCSC é um dos compensadores dinâmicos mais eficazes empregados em Sistemas Elétricos de Potência, pois, oferece um ajuste flexível, de forma rápida e confiável, possibilitando a aplicação de teorias avançadas no seu controle. Estes dispositivos podem desempenhar funções importantes para a operação e o controle do sistema, trazendo inúmeros benefícios. Devido aos benefícios que o uso deste dispositivo oferece, uma grande quantidade de trabalhos vem sendo desenvolvidos com o intuito de sintetizar leis de controle para o mesmo. Porém, a maioria destes trabalhos é fundamentado em técnicas de controle clássico, isto é, projetando leis de controle baseado em sistemas linearizados e para pontos específicos da operação. Estas técnicas de análise entretanto, não garantem que para perturbações que levam o sistema para pontos distantes daqueles usados no projeto do controlador, a atuação do controlador seja eficaz e contribua assim para a estabilização do sistema. Visando o estudo mais aprofundado dos fenômenos que ocorrem nos sistemas físicos, modelos não lineares vêm sendo empregados, e as técnicas de projeto de controladores baseadas nesses modelos, são cada vez mais desenvolvidas. Neste trabalho será empregada a técnica de controle não linear baseada na Função Energia Generalizada de Controle para síntese de leis de controles estabilizantes para os dispositivos TCSC considerando, na modelagem, as perdas do sistema de transmissão. Esta técnica foi desenvolvida recentemente por SILVA et al. (2009), onde as ideias de Função de Lyapunov de Controle para uma classe maior de problemas foram desenvolvidas. Além de permitir o projeto do controlador, a técnica fornece estimativas da região de estabilidade do sistema e, portanto, podendo subsidiar a avaliação sistemática da contribuição do controlador na estabilidade transitória. / The TCSC is one of the most effective dynamic compensators used in electric power systems, offering a flexible adjustment, quickly and reliably, enabling the application of advanced theories in their control. These devices can play important roles for the operation and control of the networks, bringing many benefits. Because of the beneficial use of these devices a large amount of work has been developed in order to synthesize their control laws. However most of these studies are based on the classical control techniques, designing control laws based on linearized systems at specific operating points. However, these techniques do not guarantee that system disturbances which lead to operating points far away from those used for the controller design, the performance of the controller will be effective contributing to the system stabilization. Aiming to further studies and understanding of the physical phenomena occurring in the real world systems, nonlinear models have being employed in the controller design and techniques based on these methodologies have been proposed as never. In this work the technique of nonlinear control based on the Generalized Control Energy Function, for synthesis of control laws, which stabilize the TCSC devices considering the losses in the system transmission lines are employed. These techniques were recently developed by SILVA et al. (2009), and they extend the ideas of Control Lyapunov Function for a larger class of problems. Besides allowing the controller design, the technique provides estimates of the system stability region and therefore can support the systematic evaluation of the contribution to the transient stability controller.
12

Downscaling estoc?stico para extremos clim?ticos via interpola??o espacial

Carvalho, Daniel Matos de 31 May 2010 (has links)
Made available in DSpace on 2014-12-17T15:26:38Z (GMT). No. of bitstreams: 1 DanielMC_DISSERT.pdf: 1549569 bytes, checksum: 5ad46f43cc6bf2e74f6fc1e20e5e2dc5 (MD5) Previous issue date: 2010-05-31 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico / Present day weather forecast models usually cannot provide realistic descriptions of local and particulary extreme weather conditions. However, for lead times of about a small number of days, they provide reliable forecast of the atmospheric circulation that encompasses the subscale processes leading to extremes. Hence, forecasts of extreme events can only be achieved through a combination of dynamical and statistical analysis methods, where a stable and significant statistical model based on prior physical reasoning establishes posterior statistical-dynamical model between the local extremes and the large scale circulation. Here we present the development and application of such a statistical model calibration on the besis of extreme value theory, in order to derive probabilistic forecast for extreme local temperature. The dowscaling applies to NCEP/NCAR re-analysis, in order to derive estimates of daily temperature at Brazilian northeastern region weather stations / Os dados de rean?lise de temperatura do ar e precipita??o do NCEP National Centers for Environmental Predictions ser?o refinados para a produ??o dos n?veis de retorno para eventos extremos nas 8 capitais do Nordeste Brasileiro - NB: S?o Luis, Teresina, Fortaleza, Natal, Jo?o Pessoa, Recife, Macei?, Aracaju e Salvador. A grade do Ncep possui resolu??o espacial de 2.5? x 2.5? disponibilizando s?ries hist?ricas de 1948 a atualidade. Com esta resolu??o a grade envolve o NB utilizando 72 localiza??es (s?ries). A primeira etapa consiste em ajustar os modelos da Distribui??o Generalizada de Valores Extremos (GEV) e da Distribui??o Generalizada de Pareto (GPD) para cada ponto da grade. Utilizando o m?todo Geoestat?stico denominado Krigagem, os par?metros da GEV e GPD ser?o interpolados espacialmente. Considerando a interpola??o espacial dos par?metros, os n?veis de retorno para extremos de temperatura do ar e precipita??o poder?o ser obtidos aonde o NCEP n?o fornece informa??o relevante. Visando validar os resultados desta proposta, ser?o ajustados os modelos GEV e GPD as s?ries observacionais di?rias de temperatura e precipita??o de cada capital nordestina, e assim comparar com os resultados obtidos a partir da interpola??o espacial. Por fim o m?todo de Regress?o Quant?lica ser? utilizado como m?todo mais tradicional com a finalidade de compara??o de m?todos.
13

Estudo avaliativo da informação mútua generalizada e de métricas clássicas como medidas de similaridade para corregistro em imagens fractais e cerebrais / Evaluative study of the generalized mutual information and classical metrics as similarity measures for coregistration of brain images and fractals.

Nali, Ivan Christensen 16 April 2012 (has links)
A integração de diferentes modalidades de imagens médicas possibilita uma análise mais detalhada de seu conteúdo, visando-se um diagnóstico mais preciso da patologia presente. Este processo, conhecido como corregistro, busca o alinhamento das imagens através da transformação rígida (ou não rígida) das mesmas, por algoritmos matemáticos de distorção, translação, rotação e ajuste de escala. A amplitude de cada transformação é determinada por uma medida de similaridade das imagens. Quanto menor a similaridade, maior será a transformação aplicada. Neste sentido, a métrica de similaridade é uma peça chave do processo de corregistro. No presente trabalho, inicialmente são propostas novas definições para o cálculo dos erros de alinhamento nas transformações de translação, rotação e escala, com o objetivo de se avaliar o desempenho do corregistro. Em seguida, cinco experimentos são realizados. No primeiro, a Informação Mútua Generalizada é avaliada como medida de similaridade para corregistro em imagens fractais e cerebrais. Neste caso, os resultados sugerem a viabilidade do emprego desta métrica, pois em geral conduz a erros de alinhamento muito pequenos, mas sem vantagens aparentes em relação à formulação de Shannon. No segundo experimento, um estudo comparativo entre a Informação Mútua e as métricas clássicas (Coeficiente de Correlação, Média dos Quadrados, Diferença de Gradiente e Cardinalidade) é então realizado. Para as imagens binárias analisadas, as métricas com menores valores de erro de alinhamento para os corregistros de translação e rotação foram a Informação Mútua e a Diferença de Gradiente. Para o corregistro de escala, todas as métricas conduziram a erros de alinhamento próximos de zero. No terceiro experimento, o processo de alinhamento é investigado em termos do número de iterações do algoritmo de corregistro. Considerando-se ambas as variáveis erro de alinhamento e número de iterações, conclui-se que o uso da Informação Mútua Generalizada com q = 1.0 é adequado ao corregistro. No quarto experimento, a influência da dimensão fractal no corregistro de imagens fractais binárias foi estudada. Para algumas métricas, a tendência geral observada é a de uma diminuição do erro de alinhamento em resposta ao aumento da dimensão fractal. Finalmente, no quinto experimento, constatou-se a existência de correlação linear entre os erros de alinhamento de imagens em tons de cinza do córtex cerebral e de fractais do conjunto Julia. / The integration of different modalities of medical images provides a detailed analysis of its contents, aiming at a more accurate diagnosis of the pathology. This process, known as coregistration, seeks to align the images through rigid (or non-rigid) transformations, by mathematical algorithms of distortion, translation, rotation and scaling. The amplitude of each transformation is determined by a similarity measure of the images. The lower the similarity, the greater the transformation applied. In this sense, the similarity metric is the key for the coregistration process. In this work, new definitions are proposed for the calculation of alignment errors in the transformations of translation, rotation and scale, with the objective of evaluating the performance of coregistration. Then, five experiments are performed. In the first one, the Generalized Mutual Information is evaluated as a similarity measure for coregistration of brain images and fractals. In this case, the results suggest the feasibility of using this measure, since it leads to very small alignment errors, although no advantages in relation to Shannon formulation are evident. In the second experiment, a comparative study between Mutual Information and the classical metrics (Correlation Coefficient, Mean Squares, Gradient Difference and Cardinality) is performed. For the binary images analyzed, the metrics with lower alignment errors for translation and rotation are the Mutual Information and Gradient Difference. For scaling transformation, all the metrics lead to alignment errors close to zero. In the third experiment, the alignment process is investigated in terms of number of iterations of the coregistration algorithm. Considering both variables alignment error and number of iterations, it is concluded that the use of Generalized Mutual Information with q =1 is appropriate for coregistration. In the fourth experiment, it is studied the influence of fractal dimension in coregistration of binary fractal images. For some metrics, as a general trend, one observes the decay of the alignment error in response to the increase of the fractal dimension. Finally, in the fifth experiment, the results indicate the existence of a linear correlation between the alignment errors of grayscale images of the cerebral cortex and Julia set fractals.
14

MYOP: um arcabouço para predição de genes ab initio\" / MYOP: A framework for building ab initio gene predictors

Kashiwabara, Andre Yoshiaki 23 March 2007 (has links)
A demanda por abordagens eficientes para o problema de reconhecer a estrutura de cada gene numa sequência genômica motivou a implementação de um grande número de programas preditores de genes. Fizemos uma análise dos programas de sucesso com abordagem probabilística e reconhecemos semelhanças na implementação dos mesmos. A maior parte desses programas utiliza a cadeia oculta generalizada de Markov (GHMM - generalized hiddenMarkov model) como um modelo de gene. Percebemos que muitos preditores têm a arquitetura da GHMM fixada no código-fonte, dificultando a investigação de novas abordagens. Devido a essa dificuldade e pelas semelhanças entre os programas atuais, implementamos o sistema MYOP (Make Your Own Predictor) que tem como objetivo fornecer um ambiente flexível o qual permite avaliar rapidamente cada modelo de gene. Mostramos a utilidade da ferramenta através da implementação e avaliação de 96 modelos de genes em que cada modelo é formado por um conjunto de estados e cada estado tem uma distribuição de duração e um outro modelo probabilístico. Verificamos que nem sempre um modelo probabilísticomais sofisticado fornece um preditor melhor, mostrando a relevância das experimentações e a importância de um sistema como o MYOP. / The demand for efficient approaches for the gene structure prediction has motivated the implementation of different programs. In this work, we have analyzed successful programs that apply the probabilistic approach. We have observed similarities between different implementations, the same mathematical framework called generalized hidden Markov chain (GHMM) is applied. One problem with these implementations is that they maintain fixed GHMM architectures that are hard-coded. Due to this problem and similarities between the programs, we have implemented the MYOP framework (Make Your Own Predictor) with the objective of providing a flexible environment that allows the rapid evaluation of each gene model. We have demonstrated the utility of this tool through the implementation and evaluation of 96 gene models in which each model has a set of states and each state has a duration distribution and a probabilistic model. We have shown that a sophisticated probabilisticmodel is not sufficient to obtain better predictor, showing the experimentation relevance and the importance of a system as MYOP.
15

Inflação em modelos de gravidade generalizada: análise dinâmica e singularidades / Generalized Gravity Models in Inflation: Dynamic Analysis and Singularities

Figueiró, Michele Ferraz 26 June 2009 (has links)
O conceito de inflação foi introduzido inicialmente para resolver alguns problemas que a cosmologia de Big Bang original não conseguia explicar, tais como os problemas do horizonte e da planura. Na fase inflacionária, o universo sofre uma expansão acelerada ( ¨a > 0) em um curto período de tempo, durante o qual também são produzidas as perturbações de densidade que são responsáveis pela formação das estruturas de larga escala no universo. Os modelos cosmológicos mais simples descritos na literatura são governados por um campo escalar , chamado inflaton, minimamente acoplado à gravidade de Einstein, e sujeito a um potencial de auto-interação V (). O ingrediente crucial da inflação é a sua evolução temporal lenta (slow roll), na qual o potencial V () supera o termo de energia cinética 2/2 ao produzir esta expansão acelerada. Nesta tese, considera-se uma Lagrangiana generalizada para o inflaton dada por f(R, ,X) a fim de se estudar modelos cosmológicos, principalmente em suas fases inflacionárias. Esta Lagrangiana engloba todos os tipos de teoria da gravidade descritos na literatura, tais como os modelos de gravidade de acoplamento mínimo (quintessência, energia de phantom, k-inflação ou k-essência) e os modelos de gravidade escalar tensorial tais como os modelos de Brans-Dicke, de acoplamento não-mínimo e de gravidade modificada. Nosso principal interesse está em descrever os tipos de singularidades de modelos cosmológicos anisotrópicos e homogêneos, com ênfase especial no caso f(R, ,X) = f(R, ) + p(,X), onde f(R, ) representa um termo de acoplamento não-mínimo e p(,X) o termo não-canônico de energia cinética. O estudo de tais singularidades põe diversos vínculos para a viabilidade de modelos cosmológicos envolvendo Lagrangianas de gravidade generalizada. / The concept of inflation was firstly introduced in order to solve some problems that the original Big Bang cosmology could not explain such as the flatness and the horizon problems. In the inflationary phase, the Universe undergoes an accelerating expansion (¨a > 0) for a short time during which there is the production of the density perturbations that are responsible for the formation of the large scale structures in the Universe. The simplest cosmological models found in the literature are governed by a scalar field , called inflaton, minimally coupled to the Einstein gravity and subjected to a self-interaction potential V (). The crucial ingredient of the inflation is its slow time evolution (slow roll) in which the self-interaction potential V () overcomes the kinetic energy term 2/2 and produces this accelerating expansion. In this thesis, we consider a generalized Lagrangian given by f(R, ,X) to study cosmological models, mainly in their inflationary phases. This Lagrangian comprehends any type of gravity theory found in the literature such as the minimal coupling gravity (i.e. quintessence, phantom energy, k-inflation or k-essence models) and the scalar-tensor gravity such as Brans-Dicke, non-minimal coupling and modified gravity models. We are specially interested in describing the types of singularities that can be found in anisotropic and homogeneous cosmological models in which the Lagrangian assumes the particular form f(R, ,X) = f(R, ) + p(,X), where f(R, ) represents the non-minimal coupling term and p(,X) is the non-canonical kinetic term. The study of these singularities stablishes many constraints for the viability of cosmological models presenting a generalized gravity Lagrangian.
16

Optimizing low impact development (LID) practices in subtropical climate / Otimização de técnicas compensatórias de drenagem urbana em clima subtropical

Macedo, Marina Batalini de 17 March 2017 (has links)
The urban drainage in Brazil has been focused historically in the hydraulic conduction of the runoff. From the 1990\'s a paradigm shift was initiated with the study of LID practices, aiming at adapting the local scenario to compensate the urbanization effects on runoff and reestablish the water cycle as close as possible to the natural. However, there is still a gap regarding the integration of qualitative-quantitative variables and their comprehension. In addition, the temperate climate regions have been in the center of the studies, with still few knowledge about other climates influence in its efficiency. Therefore, this research aimed to evaluate the operation of a bioretention structure in a subtropical climate region, regarding mainly its pollutant treatment capacity and water retention, in an integrated way. The results indicate a positive use of the bioretention in reducing the exceedance risks, by reducing the peak flow, the total volume and the pollutant load transferred downstream. However, adaptations the implementation and operation stages are necessary for subtropical climates. The local specific characteristics, such as soil highly weathered and rainfall with high intensities in short intervals of time, affect the water and pollutant retention efficiency. Further studies evaluating different applications locals and scales, and treatment key factors must be performed. / A drenagem urbana no Brasil esteve focada historicamente no tratamento hidráulico para a condução do escoamento superficial. A partir da década de 90 se inicia uma mudança de paradigma com o estudo de técnicas compensatórias (TCs), visando adaptar o cenário local para compensar os efeitos da urbanização sobre o escoamento superficial, de forma a manter o ciclo hidrológico o mais próximo possível do natural. No entanto, existe ainda uma lacuna quanto a integração das variáveis quali-quantitativas e sua compreensão. No mais, as regiões de clima temperado estiveram no centro dos estudos, havendo pouco conhecimento sobre a influência de outros climas em sua eficiência. Assim, a presente pesquisa teve como objetivo avaliar a operação de uma estrutura de bioretenção em uma região de clima subtropical, quanto a sua capacidade de tratamento da poluição difusa e retenção hídrica de forma integrada. Para tal, foram monitorados dois dispositivos em escalas distintas, sendo essas laboratório e campo. Os resultados obtidos indicaram um uso promissor da bioretenção em reduzir os riscos de enchente, reduzindo a vazão de pico e o volume total transferido à jusante, assim como a carga total de poluentes. No entanto, adaptações nas etapas de implantação e operação são necessárias para clima subtropical. As características específicas desses locais, como solos altamente intemperizados e regimes de chuva de alta intensidade em pequeno intervalo de tempo, afetam a eficiência de retenção hídrica e retenção de poluente. Novos estudos avaliando diversos locais, escalas de aplicação, e fatores-chave para o tratamento devem ser realizados.
17

Validação psicométrica da versão português-Brasil do Liverpool Adverse Events Profile (LAEP) em pacientes com epilepsia parcial sintomática e epilepsia generalizada idiopática / Psychometric validation of the Portuguese-Brazilian version of the Liverpool Adverse Events Profile in patients with symptomatic partial and idiopathic generalized epilepsies

Martins, Heloise Helena [UNIFESP] 29 June 2011 (has links) (PDF)
Made available in DSpace on 2015-07-22T20:50:57Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-06-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Fundo de Auxílio aos Docentes e Alunos (FADA) / Objetivo: Realizar a tradução, adaptação cultural e validação para o Português do Liverpool Adverse Events Profile (LAEP) e avaliar sua confiabilidade e validade em pacientes com epilepsia parcial sintomática (EPS) e epilepsia generalizada idiopática (EGI) (ILAE, 1989). O LAEP é uma escala que mede a percepção dos pacientes em relação aos efeitos adversos (EAs) das drogas antiepilépticas (DAEs). Casuística e metodologia: Pacientes maiores de 18 anos, alfabetizados e em uso de DAEs em doses estáveis por no mínimo um mês foram recrutados para responder o LAEP (19 questões). Esta versão foi administrada a um grupo de pacientes consecutivos no setor de Epilepsia do Hospital São Paulo. A confiabilidade teste-reteste foi determinada através do coeficiente intraclasse (ICC) após 2 semanas e a consistência interna pelo coeficiente alfa de Cronbach (CAC). A validade construtiva foi acessada por variáveis sócio-demográficas e clínicas e pelos inventários Quality of Life in Epilepsy Inventory (QOLIE-31) e Hospital and Anxiety Depression (HADS) ambos validadas para o Português previamente. O Coeficiente de Correlação de Pearson foi utilizado no estudo das associações entre o LAEP e os outros instrumentos. Análises de variância, testes t-Student e de Fisher foram as medidas estatísticas usadas no estudo das variáveis clínicas e socio-demográficas. A significância estatística foi considerada para valores de p<0,005. Resultados: 100 pacientes foram incluídos, 61 (61,0%) tinham EPS e 39 (41,0%) EGI, com média de idade de 34,5 anos (DP=12,12) e 56 (56,0%) eram do sexo feminino. Politerapia (com 2 ou mais DAEs) era usada por 69 (69,0%) pacientes. Carbamazepina (CBZ) foi a DAE mais comumente utilizada em toda a amostra (43,0%). A média do LAEP foi de 37,6 (DP=13,35) e os EAs mais freqüentemente reportados em toda a amostra foram Sonolência (35,0%), Problemas de memória (35,0%) e Dificuldade de concentração (25,0%). A consistência interna foi alta como demonstrado pelo coeficiente alfa de Cronbach 0,903 (0,872-0,928). A confiabilidade foi satisfatória de modo geral, com ICC variando entre 0,370 (Dificuldade de manter o equilíbrio do corpo) a 0,737 (Tontura). Os itens com ICC menor (Dificuldade de manter o equilíbrio do corpo, Problemas na boca e gengiva, Ganho de peso) foram aqueles melhor confirmados por exame físico médico. A correlação entre o LAEP e o QOLIE-31 foi alta (r=-0,804, p>0,001) e a ocorrência de EAs foi associada a piores resultados no QOLIE-31 e HADS. Pontuações elevadas no LAEP foram associadas ao número de DAEs (p=0,005), gênero feminino (p<0,001), idade maior (34,5-70 anos) (p<0,001) e presença de crises não controladas (p=0,045). A pontuação total no LAEP nos dois grupos de epilepsia foi semelhante. Variáveis clínicas que influenciaram o LAEP no grupo EGI foram freqüência de crises (p=0,050), presença de crises tonico-clônico generalizadas (p=0,031) e politerapia com três ou mais DAEs (p=0,003). No grupo EPS o único fator significativo foi a politerapia (p=0,003). Pacientes que faziam uso de CBZ em altas doses (>800 mg/dia) apresentaram pontuações mais baixas nos itens: Nervosismo e/ou agressividade (p=0,006), Perda de cabelo (p=0,045), Dificuldade de concentração (p=0,003), Problemas na boca e na gengiva (p=0,001), Depressão (p=0,042) e pontuação total (p=0,025). Pacientes que tomavam ácido valproico em doses altas (>1.000 mg/dia) demonstraram pontuações mais elevadas nos itens: Dificuldade de manter o equilíbrio do corpo (p=0,005) e Vontade de agredir (p=0,037). Conclusão: A versão Português-Brasil do LAEP foi confirmada como um instrumento confiável e válido para avaliar EAs em pacientes com epilepsia com ressalvas importantes sobre os sintomas físicos. Este estudo demonstrou que os itens do LAEP foram associados aos EAs das DAEs de forma específica e sem padrão nítido dose-dependente. Embora a pontuação geral do LAEP não tenha se mostrado útil em diferenciar EAs em epilepsias distintas como EPS e EGI, esta escala subjetiva pode ser utilizada como triagem continuada nos ensaios clínicos com DAEs que afetam os itens por ela estudados. / Purpose: To report the translation, cultural adaptation and validation of the Liverpool Adverse Events Profile (LAEP) into a Portuguese–Brazilian version and evaluate its reliability and validity in patients with symptomatic partial (SPE) and idiopathic generalized epilepsies (IGE) (ILAE, 1989). LAEP is a scale to measure patient’s perception about adverse effects (AEs) of antiepileptic drugs (AEDs). Methods: Patients (literate, >18yrs.) who were taking AEDs at a stable dose for at least one month were recruited for LAEP (19 questions). This version was administered to a group of consecutive outpatients in the Epilepsy Section of Hospital São Paulo. Test–retest reliability was determined through intra-class coefficient (ICC) after 2 weeks and internal consistency by Cronbach’s alpha coefficient (CAC). Construct validity was accessed by sociodemographic/clinical evaluation, “The Hospital Anxiety and Depression Scale” (HADS) and “Quality of Life in Epilepsy-31 Inventory” (QOLIE-31), both validated previously to Portuguese. Pearson’s correlation coefficient was used to analyse the association between LAEP and other instruments. Analyses of variance, t-Student´s for independent samples, Fisher´s exact, Mann-Whitney’s tests were used for sociodemographic/clinical variables. P values less than 0.050 were considered statistically significant. Results: 100 patients were included: 61 (61.0%) with SPE and 39 (39.0%) with IGE (mean age 34.5; SD=12.12yrs), 56 females. Polytherapy (2 or more AEDs) were used by 69 (69,0%) patients. Carbamazepine (CBZ) was the most commonly used AED (43%). LAEP mean score was 37.6 (SD=13.35), and the most common AEs were Sleepiness (35.0%), Memory problems (35.0%) and Difficulty in concentrating (25.0%). The internal consistency was high (CAC=0.903; 0.872- 0.928). The reliability was satisfactory in general and ICC ranged from 0.370 (Unsteadiness) to 0.737 (Dizziness). The items with lower ICC (Unsteadiness, Problems with mouth and gums, Weight gain) were those which are better confirmed during medical physical examination. Correlation between LAEP and QOLIE-31 was high (r=-0.804, p>0.001) and occurrence of AEs were associated with worse QOLIE-31 and HADS results. Higher LAEP scores were associated to number of AEDs (p=0.005), female gender (p<0.001), older age (34.5-70yrs.) (p<0,001) and the presence of uncontrolled seizures (p=0.045). LAEP total scores in the two epilepsy groups were similar. Variables that influenced global LAEP in IGE were seizure frequency (p=0.050), generalized tonic-clonic seizures in the last month (p=0.031) and polytherapy with 3 or more AEDs (p=0.003); in SPE, only polytherapy (p=0.003). Higher CBZ doses (>800mg) showed lower scores in: Nervousness and or/agitation (p=0.006), Hair Loss (p=0.045), Difficulty in concentrating (p=0.003), Problems with mouth and gums (p=0.001), Depression (p=0.042), and overall score (p=0.025). Regarding higher valproic acid doses (>1000mg), Unsteadiness (p=0.005) and Feelings of aggression (p=0.037) were more frequently reported. Conclusion: The Portuguese-Brazilian version of LAEP was confirmed as a reliable and valid instrument for assessing AEs in patients with epilepsy with important restraints in physical symptoms. This study demonstrated that LAEP items were associated to specific AEs of AEDs without a clear dose dependent pattern. Although LAEP overall score was not helpful for differentiating AEs in distinct epilepsies such EPS and EGI this subjective questionnaire may be useful for continued screening of patients in clinical trials with AEDs that affect the items studied by this scale. / TEDE / BV UNIFESP: Teses e dissertações
18

Implementação de um algoritmo numérico para solução da equação de Christoffel generalizada em acustoelasticidade. / Implementation of a numerical algorithm for solution of the generalized Chistoffel equation in acoustoelasticity.

Fabricio Santos Velozo 31 August 2012 (has links)
Extensos estudos realizados nas últimas décadas sobre a propagação de ondas ultrassônicas em sólidos levaram ao desenvolvimento de técnicas não destrutivas para a avaliação da segurança e integridade de estruturas e componentes industriais. O interesse na aplicação de técnicas ultrassônicas para medição de tensões aplicadas e residuais decorre da mudança mensurável da velocidade das ondas ultrassônicas na presença de um campo de tensões, fenômeno conhecido como efeito acustoelástico. Uma teoria de acustoelasticidade fornece um meio atrativo e não destrutivo de medir a tensão média ao longo do caminho percorrido pela onda. O estudo da propagação das ondas ultrassônicas em meios homogêneos anisotrópicos sob tensão conduz a um problema não linear de autovalores dado pela equação de Christoffel generalizada. A característica não linear deste problema decorre da interdependência entre as constantes elásticas efetivas do material e as tensões atuantes. A medição experimental de tensões por técnicas ultrassônicas é um problema inverso da acustoelasticidade. Esta dissertação apresenta a implementação de um algoritmo numérico, baseado no método proposto por Degtyar e Rokhlin, para solução do problema inverso da acustoelasticidade em sólidos ortotrópicos sujeitos a um estado plano de tensões. A solução da equação de Christoffel generalizada apresenta dificuldades de natureza numérica e prática. A estabilidade e a precisão do algoritmo desenvolvido, bem como a influência das incertezas na medição experimental das velocidades das ondas ultrassônicas, foram então investigadas. Dados sintéticos para as velocidades das ondas ultrassônicas de incidência oblíqua em uma placa sujeita a um estado plano de tensões foram gerados pela solução direta da equação de Christoffel generalizada para ilustrar a aplicação do algoritmo desenvolvido. O objetivo maior desta dissertação é a disponibilização de uma nova ferramenta de cálculo para suporte às atividades experimentais de medição de tensões por ultrassom no país. / Extensive studies carried out in the last decades on the propagation of ultrasonic waves in solids led to the development of nondestructive techniques for the assessment of the safety and integrity of industrial structures and components. The interest in the application of ultrasound techniques for stress measurement for example comes from the measurable change in the speed of the ultrasonic elastic waves in the presence of a stress field, a phenomenon known as acoustoelastic effect. An acoustoelastic theory provides an attractive way of non-destructively measuring the average stress along the waves path. The study of the propagation of ultrasonic waves in homogenous anisotropic bodies under stress leads to a nonlinear eigenvalue problem given by the generalized Christoffel equation. The nonlinearity characteristic of the problem derives from the interdependence between the materials effective elastic constants and the acting stresses. The experimental measurement of stresses using ultrasound techniques is an inverse problem of acoustoelasticity. This dissertation presents the implementation of a numeric algorithm, based on the method proposed by Degtyar and Rokhlin, for solution of the inverse problem of acoustoelasticity in orthotropic solids subjected to a plane stress state. The solution of the generalized Christoffel equation poses difficulties of numerical and practical order. The stability and precision of the algorithm developed, as well as the influence of the experimental uncertainties in the measurement of the speed of the ultrasonic waves, were thus investigated. Synthetic data for the speeds of ultrasonic waves of oblique incidence in a plane-stress plate were generated to illustrate the application of the algorithm developed. The main objective of this dissertation is to make available in the country a new numerical tool to support the use of ultrasonic waves for experimental stress analysis.
19

Modelagem e simulação do escoamento imiscível em meios porosos fractais descritos pela equação de Kozeny-Carman Generalizada / Modeling and simulation of immiscible flow in porous fractals described by the equation of Kozeny-Carman Generalized

Juan Diego Cardoso Brêttas 18 April 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work deals with the two-phase flow in heterogeneous porous media of fractal nature, where the fluids are considered immiscible. The porous media are modeled by the Kozeny-Carman Generalized (KCG) equation, a relationship between permeability and porosity obtained from a new power law. This equation proposed by us is able to generalize various models of the literature, and thus is of more general use. The numerical simulator developed here employs finite difference methods. Following the classic strategy called IMPES, the evolution in the time is based on an operators splitting technique. Thus, the pressure field is computed implicitly, whereas the saturation equation of wetting phase is solved explicitly in each time step. The optimization method called DFSANE is used to solve pressure equation. We emphasize that the DFSANE method has not been used before in the reservoir simulation context. Therefore, its use here is unprecedented. To minimize numerical diffusions, the saturation equation is discretized by an upwind-type scheme, commonly employed in numerical simulators for petroleum recovery, which is explicitly solved by the fourth order Runge-Kutta method. The simulation results are quite satisfatory. In fact, these results show that the KCG model is able to generate heterogeneous porous media, whose features enable to capture physical phenomena that are generally inaccessible to many simulators based on classical finite differences, as the so-called fingering phenomenon, which occurs when the mobility ratio (between the fluid phases) assumes adverse values. In all simulations presented here, we consider that the immiscible flow is two-dimensional. Thus, the porous medium is characterized by permeability and porosity fields defined in two-dimensional Euclidean regions. However, the theory discussed in this work does not impose restrictions for the their application to three-dimensional problems. / O presente trabalho trata do escoamento bifásico em meios porosos heterogêneos de natureza fractal, onde os fluidos são considerados imiscíveis. Os meios porosos são modelados pela equação de Kozeny-Carman Generalizada (KCG), a qual relaciona a porosidade com a permeabilidade do meio através de uma nova lei de potência. Esta equação proposta por nós é capaz de generalizar diferentes modelos existentes na literatura e, portanto, é de uso mais geral. O simulador numérico desenvolvido aqui emprega métodos de diferenças finitas. A evolução temporal é baseada em um esquema de separação de operadores que segue a estratégia clássica chamada de IMPES. Assim, o campo de pressão é calculado implicitamente, enquanto que a equação da saturação da fase molhante é resolvida explicitamente em cada nível de tempo. O método de otimização denominado de DFSANE é utilizado para resolver a equação da pressão. Enfatizamos que o DFSANE nunca foi usado antes no contexto de simulação de reservatórios. Portanto, o seu uso aqui é sem precedentes. Para minimizar difusões numéricas, a equação da saturação é discretizada por um esquema do tipo "upwind", comumente empregado em simuladores numéricos para a recuperação de petróleo, o qual é resolvido explicitamente pelo método Runge-Kutta de quarta ordem. Os resultados das simulações são bastante satisfatórios. De fato, tais resultados mostram que o modelo KCG é capaz de gerar meios porosos heterogêneos, cujas características permitem a captura de fenômenos físicos que, geralmente, são de difícil acesso para muitos simuladores em diferenças finitas clássicas, como o chamado fenômeno de dedilhamento, que ocorre quando a razão de mobilidade (entre as fases fluidas) assume valores adversos. Em todas as simulações apresentadas aqui, consideramos que o problema imiscível é bidimensional, sendo, portanto, o meio poroso caracterizado por campos de permeabilidade e de porosidade definidos em regiões Euclideanas. No entanto, a teoria abordada neste trabalho não impõe restrições para sua aplicação aos problemas tridimensionais.
20

Modelos de regressão binomial correlacionada

Pires, Rubiane Maria 18 May 2012 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 4475.pdf: 1244079 bytes, checksum: 3217620ac6ab16457a5ab67a737b433c (MD5) Previous issue date: 2012-05-18 / Financiadora de Estudos e Projetos / In this thesis, a class of correlated binomial regression models is proposed. The model is based on the generalized binomial distribution proposed by Luceño (1995) and Luceño & Ceballos (1995). The regression structure is modeled by using four different link functions and the dependence between the Bernoulli trials is modeled by using three different correlation structures. A data augmentation scheme is used in order to overcome the complexity of the mixture likelihood. Frequentist and Bayesian approaches are used in the model fitting process. A diagnostics analysis is provided in order to check the underlying model assumptions and to identify the presence of outliers and/or influential observations. Simulation studies are presented to illustrate the performance of the developed methodology. A real data set is analyzed by using the proposed models. Also the correlated binomial regression models is extended to include measurement error in a predictor. This new class of models is called additive normal structure correlated binomial regression models. The inference process also includes a data augmentation scheme to overcome the complexity of the mixture likelihood. / Nesta tese é proposta uma classe de modelos de regressão binomial correlacionada baseados na distribuição binomial generalizada, proposta por Luceño (1995) e Luceño & Ceballos (1995). A estrutura de regressão é modelada usando diferentes funções de ligação e a relação de dependência entre os ensaios de Bernoulli é modelada usando diferentes estruturas de correlação. Uma estratégia de dados aumentados é utilizada para contornar a complexidade da função de verossimilhança. As abordagens clássica e Bayesiana são utilizadas no processo de ajuste dos modelos propostos. Análise de diagnóstico é desenvolvida com o objetivo de verificar as suposições iniciais do modelo e identificar a presença de outliers e/ou observações influentes. Estudos de simulação e aplicação em dados reais ilustram as metodologias. Propomos também uma nova classe de modelos de regressão binomial correlacionada, denominados modelos de regressão binomial correlacionada aditivo estrutural normal, que envolvem a presença de uma covariável com erro de medida. No processo de estimação para esta nova classe, dados aumentados e aproximação de integral são utilizadas para contornar a complexidade da função de verossimilhança.

Page generated in 0.0819 seconds