• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 67
  • Tagged with
  • 67
  • 51
  • 51
  • 38
  • 38
  • 36
  • 36
  • 36
  • 36
  • 36
  • 16
  • 16
  • 12
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Avaliação e aplicação de métodos analíticos para a detecção de dietilestilbestrol / Evaluation and application of analytical methods for the detection of diethylstilbestrol

Elizabeth de Souza Nascimento 13 June 1991 (has links)
O uso hormônios como promotores de crescimento em animais de criação foi proibido em vários países, inclusive no Brasil, desde os anos setenta. Para o controle destes anabolizantes, foi desenvolvida uma enorme variedade de métodos, tanto com propósitos de triagem como de confirmação. Os métodos mais usados são os físico-quimicos, entre eles os cromatográficos, tais como cromatografia em camada delgada, cromatografia a gás acoplada a espectrômetro de massa, cromatografia líquida de alta eficiência com detector UV, e os ensaios imunoquímicos tais como radioimunoensaio ou enzimaimunoensaio. Este trabalho revisa os métodos analíticos mais usados internacionalmente no controle de substâncias anabolizantes em tecidos e urina de animais de criação para consumo humano. Atenção especial é dada ao anabolizante potencialmente cancinogênico, Dietilstilbeltrol (DES) em relação ao seu uso no Brasil e às dificuldades envolvidas em sua determinação. São propostos neste trabalho métodos para detecção do DES em sítios de aplicação, na urina, no tecido muscular e nas vísceras, bem como são apresentados os resultados da aplicação desta metodologia em amostras de animais implantado e de controle e amostras autênticas. / Since the seventies, the use of hormonal anabolics as growth promotors in lifestock fattening has been banned in many countries, including Brazil. For control purposes a wide range of methods have been developed for both large-scale screnning and confirmation. The most used methods are the physical-chemical ones, such as thin-layer chromatography (TLC), gas chromatography-mas spectrometry (CG-MS), high performance liquid cromatography (HF\'LC) with UV detector and immunochemical assay (RIA) or enzime imuno assay (ELISA). This thesis reviews the most used methods for the control of anabolics in tissue as well as in the urine of cattle raised for human consumption. Special attention is given to the potencially calcinogen Diethylstilbestrol, its possible use in Brazil and the difficulties envolved in its determination. Suitable methods for the detection of DES in samples from injection sites, urine, tissue and organs of implanted and control animals, are presented, as well as results obtained from authentic samples.
22

[en] DEVELOPMENT AND INTRALABORATORY VALIDATION OF THE METHOD BY CAPILLARY MICELLAR ELECTROKINETIC CHROMATOGRAPHY FOR THE DETERMINATION OF VITAMIN K1 AND K3 IN GREEN TEA AND PHARMACEUTICAL SUPPLEMENTS / [pt] DESENVOLVIMENTO E VALIDAÇÃO INTRALABORATORIAL DO MÉTODO POR CROMATOGRAFIA ELETROCINÉTICA CAPILAR MICELAR PARA DETERMINAÇÃO DE VITAMINA K1 E K3 EM CHÁ VERDE E EM SUPLEMENTOS FARMACÊUTICOS

TATIANE VIDAL DIAS GOMES 13 August 2012 (has links)
[pt] O desenvolvimento e validação de um método analítico para determinação de vitamina K é de fundamental importância considerando a crescente preocupação mundial com questões referentes à qualidade de vida, nutrição, saúde e meio ambiente, além da importância deste micronutriente na saúde. Desenvolveu-se um método baseado na cromatografia eletrocinética capilar micelar (MEKC) para a determinação das vitaminas K1 e K3. As condições ótimas de análise por MEKC foram obtidas a partir de estudo univariado de parâmetros experimentais e instrumentais (tampão borato 3,1 g.L(-1), pH igual a 8,5; CTAB 18,2 g.L(-1); acetonitrila 20 por cento v/v, 25 graus Celsius, 30 kV, Tigual a 15 s). Realizou-se um estudo com uma cela de caminho óptico alongado de modo a melhorar o limite de detecção (LOD) e o limite de quantificação (LOQ) do método. As curvas analíticas de ambas as vitaminas apresentaram comportamento linear e homoscedástico com valores de r próximos a 0,99. Os valores de LOD e de LOQ para a vitamina K1 e para a vitamina K3 ficaram na ordem de 10(-5) g.L(-1) e 10(-4) g.L(-1), respectivamente. A precisão do método apresentou valores entre 2 e 7 por cento para a área dos picos. As recuperações obtidas para a vitamina K1 foram de 101 mais ou menos 2 por cento e 103 mais ou menos 2 por cento para as amostras de suplemento vitamínico e chá verde, respectivamente. Para a vitamina K3, a recuperação obtida foi de 99 mais ou menos 3 por cento para a amostra de chá. Testes comparativos realizados entre o método proposto por MEKC e o método de referência baseado em HPLC demonstraram uma boa exatidão (tcalculado menor que ttabelado). A incerteza associada ao método desenvolvido apresentou valores entre 2 e 30 por cento, sendo as fontes mais relevantes aquelas associadas à construção da curva analítica e ao preparo das soluções. O método analítico desenvolvido pode contribuir para a realização de medições confiáveis e sensíveis de diferentes formas de vitamina K. / [en] The development and validation of an analytical method for determination of vitamin K is of paramount importance considering the growing worldwide concern with questions regarding the quality of life, nutrition, health and environment and the importance of this micronutrient in health. It is developed a method based on capillary micellar electrokinetic chromatography (MEKC) for the determination of vitamin K1 and K3. The optimal condition for analysis by MEKC were obtained by means of experimental and instrumental univariate study (borate buffer 3.1 gL(-1), pH equal 8.5; CTAB 18.2 gL(-1), 20 per cent acetonitrile v/v 25 celsius degrees, 30 kV, T equal 15 s). A study with a longer optical path-length capillary cell was performed to improve the detection limit (LOD) and the limit of quantification (LOQ) of the method. Analytical curves of both vitamins presented linear and homoscedastic behavior, with r values near 0.99. The values of LOD and LOQ for vitamin K1 and vitamin K3 were on the order of 10(-5) g.L(-1) and 10(-4) g.L(-1), respectively. The precision of the method was between 2 and 7 per cent for the peak area. Recoveries for vitamin K1 were 101 more or less 2 per cent and 103 more or less 2 per cent for samples of vitamin supplement and green tea, respectively. For vitamin K3, recovery obtained was 99 more or less 3 per cent for the sample tea. Comparative tests performed among the proposed method by MEKC and the reference method based on HPLC showed good accuracy (tcalculated less than ttabulated). The measurement uncertainty associated with the method developed showed values between 2 and 30 per cent, and the relevant sources were those associated with the analytical curve and the preparation of solutions. The developed analytical method can contribute to achieve sensitive and reliable measurements of different forms of vitamin K.
23

[en] METHODS FOR THE IMIDACLOPRID QUANTIFICATION IN AQUEOUS SOLUTIONS: METROLOGICAL VALIDATION AND COMPARISON BETWEEN UV-VIS SPECTROPHOTOMETRY AND HIGH-PERFORMANCE LIQUID CHROMATOGRAPHY / [pt] MÉTODOS DE QUANTIFICAÇÃO DE IMIDACLOPRID EM SOLUÇÕES AQUOSAS: VALIDAÇÃO METROLÓGICA E COMPARAÇÃO ENTRE ABSORCIOMETRIA MOLECULAR E CROMATOGRAFIA LÍQUIDA DE ALTA EFICIÊNCIA

KELLY NEOOB DE CARVALHO CASTRO 21 May 2007 (has links)
[pt] Um procedimento analítico é considerado apropriado para uma aplicação específica quando é capaz de gerar resultados confiáveis, que possibilitem a tomada de decisão com grau de confiança adequado, sendo sua adequação consolidada mediante a realização de ensaios de validação. Este trabalho propõe a utilização de um procedimento analítico alternativo, mais simples e econômico, baseado na técnica espectrofotométrica de absorção molecular, para quantificação de imidacloprid, um inseticida sistêmico, em amostras de solução aquosa. Foi demonstrado que o procedimento proposto é adequado ao uso pretendido descrevendo-se, detalhadamente, cada etapa da validação, considerando-se os limites estabelecidos para cada parâmetro de validação e aplicando-se técnicas estatísticas apropriadas na avaliação dos mesmos: análise de variância, análise de regressão, testes de significância, gráficos de controle e a estimativa da incerteza de medição. As incertezas de medição dos procedimentos de rotina e alternativo foram estimadas e comparadas às tolerâncias estipuladas, estabelecendo o procedimento alternativo como adequado. Uma comparação experimental deste procedimento com o de rotina (baseado em HPLC) foi realizada como parte do protocolo de validação. Além da avaliação do procedimento para quantificação de imidacloprid em nível de traços, foi investigada também a possibilidade de sua utilização, para a quantificação do mesmo ingrediente ativo em produtos formulados. Neste caso, foi demonstrado, através da comparação das incertezas estimadas às tolerâncias estabelecidas, que o procedimento alternativo não é adequado, por apresentar incertezas na ordem de aproximadamente 50% do valor destas tolerâncias, não possuindo assim o rigor metrológico requerido para esta aplicação. / [en] Fit for purpose analytical procedures must be sufficiently reliable to support any decision taken based on the generated results. In order to achieve that, consolidated adequacy evaluation of the analytical procedure must be obtained by performing validation experiments. In this work, an alternative and simpler spectrophotometric method for the quantification of imidacloprid in aqueous samples was compared to the HPLC-UV based reference method used in routine. The overall validation procedure started with a detailed description of each validation stage, followed by the settling of the limits for each of the validation parameters and then, applying the following statistical techniques to evaluate each of the parameters: ANOVA, regression analysis, significance tests, control charts and uncertainty estimation. The measurement of uncertainties estimation, based on ISO-GUM recommendations, was done for both analytical procedures (the alternative one and the reference one). After comparing these uncertainties with the tolerance values, the adequacy of the alternative proposed procedure was confirmed. Finally, by consolidating the validation, the experimental comparison of quantification methods was conducted. Besides evaluating the analytical procedure for trace-level imidacloprid quantification in water samples, the proposed method was also evaluated as the analytical procedure for imidacloprid based formulated products. In this case, it was demonstrated that the spectrophotometric method did not present the requested metrological requirements for such application, since the estimated uncertainties of the alternative procedure were about 50 % of the tolerance values.
24

Programação modular e computação de alto desempenho em um simulador de reservatórios não convencionais de gás em folhelhos / Modular programming and high performance computing in a gas shale reservoir simulator

Moreira, Rafael Nardes 04 March 2016 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-04-06T18:00:17Z No. of bitstreams: 1 thesis nardes.pdf: 2049603 bytes, checksum: 3e70b3af2120ccb2b18a9454fbbb0719 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-04-06T18:00:31Z (GMT) No. of bitstreams: 1 thesis nardes.pdf: 2049603 bytes, checksum: 3e70b3af2120ccb2b18a9454fbbb0719 (MD5) / Made available in DSpace on 2017-04-06T18:00:42Z (GMT). No. of bitstreams: 1 thesis nardes.pdf: 2049603 bytes, checksum: 3e70b3af2120ccb2b18a9454fbbb0719 (MD5) Previous issue date: 2016-03-04 / Agência Nacional do Petróleo, Gás Natural e Biocombustíveis / Computer modeling of reservoirs is the tool that provides the accurate description of the existing physical phenomena in the oil and gas recovery process, being of interest to both the industry and science. In oil and gas industry, the demand of commercial simulators is remarkable. At the same time, scientific simulators are able to provide researchers with the freedom and control needed by the academic activity. Among the major demands of scientific software are: (i) the scalable design, which is correlated with organized and modular code development, and (ii) the scalable execution, related to the implementation of techniques for parallel and high performance computing, due to the large amount of manipulated data and the compute-intensive numerical models produced by science. This dissertation aims to the application of techniques for modular object-oriented programming and parallel computing, with OpenMP and MPI, in a scientific simulator, developed in Fortran and used in the numerical modeling of problems related to gas flow on unconventional gas-shale reservoirs. / A modelagem computacional de reservatórios é o instrumento que permite a descrição precisa dos fenômenos físicos existentes no processo de recuperação de óleo e gás, tendo grande interesse tanto para a indústria quanto para a ciência. Na indústria de óleo e gás, é grande a demanda por simuladores comerciais de reservatórios. Por outro lado, simuladores científicos são capazes de oferecer aos pesquisadores do domínio, o controle e a liberdade necessários à atividade acadêmica. Dentre as principais demandas do software científico em geral estão (i) o design escalável, relacionado ao desenvolvimento de código de maneira organizada e modular, contribuindo para sua evolução e (ii) a execução escalável, relacionada à implementação de técnicas de computação paralela e de alto desempenho, em razão das grandes massas de dados manipuladas e dos modelos numéricos computacionalmente intensivos produzidos pela ciência. Este trabalho trata do emprego de técnicas de programação modular com orientação a objetos e de computação paralela com OpenMP e MPI em um simulador científico, escrito em Fortran e utilizado na modelagem numérica de problemas de escoamento em reservatórios não convencionais de gás em folhelhos.
25

Managing numerical simulation data using a multidimensional array representation

Lustosa, Hermano Lourenço Souza 09 December 2015 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-04-18T17:56:33Z No. of bitstreams: 1 Dissertação (Hermano Lustosa).pdf: 11841214 bytes, checksum: c30da4b19ca9fd69bf262318a593729b (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-04-18T17:56:51Z (GMT) No. of bitstreams: 1 Dissertação (Hermano Lustosa).pdf: 11841214 bytes, checksum: c30da4b19ca9fd69bf262318a593729b (MD5) / Made available in DSpace on 2017-04-18T17:57:04Z (GMT). No. of bitstreams: 1 Dissertação (Hermano Lustosa).pdf: 11841214 bytes, checksum: c30da4b19ca9fd69bf262318a593729b (MD5) Previous issue date: 2015-12-09 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Scientific applications, such as numerical simulations, generate an ever increasing amount of data that needs to be eficiently managed. As most traditional row-store Database Management Systems are not tailored for the analytical workload usually required by such applications, alternative approaches, e. g., columnstore and multidimensional arrays, can offer better querying processing time. In this work, we propose new techniques for managing the data produced by numerical simulations, such as those coming from HeMoLab, by using multidimensional array technologies. We take advantage of multidimensional array that nicely models the dimensions and variables used in numerical simulations. The eficient mapping of the simulation output file onto a multi-dimensional array is not simple. A naive solution may lead to sparse arrays, impacting query response time, specially when the simulation uses irregular meshes to model its physical domain. We propose novel strategies to solve these problems by defining an eficient mapping of coordinate values in numerical simulations to evenly distribute cells in array chunks with the use of equi-depth histograms and space-filling curves. We evaluated our techniques through experiments over real-world data, comparing them with a columnar and a row-store relational systems. The results indicate that multidimensional arrays and column-stores are much faster than a tradivitional row-store system for queries issued over a larger amount of simulation data. Also, the results help to identify the scenarios in which using multidimensional arrays is the most eficient approach, and the ones in which they are outperformed by the relational column-store approach. / Aplicações científicas geram uma crescente massa de dados que precisam ser analisados e gerenciados eficientemente. Uma vez que os tradicionais bancos de dados relacionais não são projetados para a carga de trabalho predominantemente analítica exigida por essas aplicações, abordagens alternativas, tais como, matrizes multidimensionais e bancos de dados colunares, podem oferecer melhores tempos de execução de consultas. Neste trabalho, propomos o uso de novas tecnologias para a gerência de dados produzidos por simulações numéricas, similares às desenvolvidas pelo HeMoLab. O modelo de matrizes multidimensionais permite a modelagem elegante de dimensões e variáveis usadas em simulações numéricas. Entretanto, o mapeamento dos dados de saída de uma simulação em uma matriz multidimensional não é simples. Uma solução ingênua pode levar a criação de matrizes excessivamente esparsas, impactando o tempo de resposta do sistema, especialmente quando a simulação utiliza uma malha irregular para modelar o seu domínio físico. Nós propomos novas estratégias para resolver esses problemas através da definição de um mapeamento eficiente de valores de coordenadas com o uso de histogramas e curvas de preenchimento espacial. Nós avaliamos nossas técnicas através de experimentos feitos com dados reais, comparando-as com bancos de dados relacionais. Os resultados indicam que tanto iv matrizes multidimensionais quanto bancos de dados colunares são muitas vezes mais rápidos que bancos de dados relacionais tradicionais para consultas avaliando uma grande quantidade de dados. Além disso, os resultados auxiliam na identificação de cenários nos quais matrizes multidimensionais são mais eficientes, e nos quais elas são superadas por uma abordagem envolvendo o uso de um banco de dados colunar.
26

From medical image processing to in-vivo mechanical characterization : a framework based on IVUS studies / Desde o processamento de imagens médicas até a characterização in-vivo das propriedades mecânicas: um framework baseado em estudos IVUS.

Maso Talou, Gonzalo Daniel 31 March 2017 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-05-04T18:38:09Z No. of bitstreams: 1 ThesisMasoTalou_Oficial_simpleFace.pdf: 68280242 bytes, checksum: 9e68eebcd1ef31f7a60de5be481eda3b (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-05-04T18:38:20Z (GMT) No. of bitstreams: 1 ThesisMasoTalou_Oficial_simpleFace.pdf: 68280242 bytes, checksum: 9e68eebcd1ef31f7a60de5be481eda3b (MD5) / Made available in DSpace on 2017-05-04T18:38:32Z (GMT). No. of bitstreams: 1 ThesisMasoTalou_Oficial_simpleFace.pdf: 68280242 bytes, checksum: 9e68eebcd1ef31f7a60de5be481eda3b (MD5) Previous issue date: 2017-03-31 / Fundação Carlos Chagas Filho de Amparo à Pesquisa do Estado do Rio de Janeiro (FAPERJ) / Cardiovascular diseases are the principal cause of mortality and morbidity worldwide mostly due to myocardial infarction and stroke. The understanding of the genesis, development and progression of such diseases is key for effective diagnosis, treatment and surgical risk assessment. Notorious advances have been performed in the histological characterization of culprit plaque for such events, although in-vivo techniques for tissue characterization still comprise an extremely active area of research. In this work, a framework is proposed targeting the in-vivo characterization of the arterial wall tissues. The set of methodologies involves: novel image processing methods for medical image enhancement (gating, registration and denoising of high frequency ultrasonic images) and optical flow estimation; detailed mechanical models for coronary arteries; and an efficient data assimilation method for tissue characterization. The thesis is structured in three parts: i) medical image processing; ii) material parameter estimation and iii) medical applications. Particularly, this work makes use of Intravacular Ultrasound (IVUS) as medical image acquisition technique, even though, the second part of the thesis is generic and can be straightforwardly extended to other imaging techniques. In the first part, different methods are presented to enhance and retrieve data of arterial vessel deformations and spatial description of anatomical structures. A novel gating method is proposed to obtain the vessel description at each instant along the cardiac cycle. Due to the intrinsic motion of the sensors during the image acquisition, we propose a registration method that corrects the sensor displacement in the transversal plane of acquisition and along the axis of the vessel. To improve the signal-to-noise ratio of the ultrasound, we propose a denoising method based on the speckle noise (ultrasound characteristic noise) statistics which outperforms classic denoising strategies. Using the three previous methods, we present a methodology to obtain the optical flow of the vessel cross-section during the whole cardiac cycle. In the second part, we scrutinize state-of-the-art literature about the arterial anatomy and mechanical behavior of the arterial wall with particular focus on coronary arteries. Hence, we describe the pathophysiology of the atherosclerosis and the mechanical alterations of the components of the tissues in affected vessels. Then, the tissue characterization problem is addressed by estimating the constitutive parameters of constitutive mechanical models for arterial tissues with a reduced-order unscented Kalman filter. Using the surveyed data and adequate constitutive models, the appropriate setup for the data assimilation problem is studied, and the capabilities of the proposed strategy for tissue estimation are assessed. Then, optical flow techniques are employed to characterize the tissues in-vivo. The third part of the thesis presents a side contribution related to the first part of this work, that is a multimodality comparison for the generation of geometric arterial models from medical images. Specifically, we compare coronary computed tomography angiography (CCTA) versus coronary angiography fused with intravascular ultrasound in terms of geometric descriptors and hemodynamic indexes derived from the geometric models. In such study the gating and registration techniques developed in the first part of the thesis are employed. / As doenças cardiovasculares são a principal causa de mortalidade e morbidade em todo o mundo, principalmente devido a acidentes vasculares tais como infarto de miocárdio e acidente cerebro-vascular. O entendimento da gênese, progressão e comportamento de tais doenças é fundamental para um eficaz diagnóstico, tratamento e avaliação de risco cirúrgico. Grandes avanços foram realizados na caracterização histológica da placa vulnerável que conduz a acidentes vasculares, embora as técnicas in-vivo para a visualização da mesma ainda constituam uma área de pesquiza extremamente activa. Neste trabalho é proposta um metodologia para estudar a caracterização in-vivo dos tecidos da parede arterial. Esta metodologia envolve: novos métodos de aprimoramento de imagens médicas (gating, registro e redução de ruído para imagens de ultrassom de alta frequência) e estimativa de fluxo ótico; modelos mecânicos detalhados para artérias coronárias; e um método eficiente de assimilação de dados para a caracterização de tecidos. A tese é dividida em três partes: i) processamento de imagens médicas; ii) estimação de parâmetros de material e iii) aplicações médicas. Particularmente, este trabalho foca-se no uso do ultrassom intravascular (IVUS) como técnica de imagens médicas, embora a segunda parte do manuscrito é suficientemente genérica para ser estendida para outros tipos de imagens médicas. Na primeira parte, são apresentados diferentes métodos para melhorar e recuperar de medidas de deformações e descrição espacial das estruturas anatômicas dos vasos arteriais. Propõe-se um novo método de gating para extrair a descrição do vaso em cada instante do ciclo cardíaco. Devido ao movimento intrínseco dos sensores durante a aquisição da imagem de ultrassom, propomos um método de registro que corrige este deslocamento no plano transversal e no eixo axial de aquisição. Para melhorar a relação sinal-ruído das imagens geradas, propõe-se um método de redução de ruído baseado na estatística do ruído ``speckle'' (ruído intrínseco do ultrassom), que supera as estratégias clássicas de redução de ruído presentes na literatura. Usando os três métodos anteriores, apresentamos uma metodologia para estimar o fluxo óptico da seção transversal do vaso durante o ciclo cardíaco. Na segunda parte, apresentamos um resumo do estado da arte sobre a anatomia arterial e o comportamento mecânico da parede arterial, com especial ênfase nas artérias coronárias. Assim, descrevemos a fisiopatologia da aterosclerose e as alterações mecânicas nos tecidos dos vasos afetados. Em seguida, o problema de caracterização de tecidos é abordado, estimando os parâmetros constitutivos de modelos mecânicos para tecidos arteriais via filtros de Kalman. Utilizando dados experimentais de especímens ex-vivo e modelos constitutivos apropriados, estuda-se a configuração do filtro de Kalman e avalia-se a capacidade da estratégia proposta para a estimação de tecidos. Por último, são empregadas técnicas de fluxo óptico desenvolvidas na primeira parte, para abordar a caracterização dos tecidos in-vivo. A terceira parte da tese apresenta uma contribuição obtida com as técnicas desenvolvidas na primeira parte deste trabalho. Realiza-se uma comparação multimodal para a geração de modelos geomêtricos arteriais a partir de imagens médicas. Especificamente, comparamos a tomografia coronariana computadorizada (CCTA) versus a angiografia coronariana fundida com ultrassom intravascular em termos de descritores geométricos e índices hemodinâmicos derivados dos modelos geomêtricos. Neste estudo são empregadas técnicas de gating e registro para obter uma correta descrição geométrica dos vasos.
27

Computational models for the geometric and functional analysis of the coronary circulation / Modelos computacionais para a análise geométrica e funcional da circulação coronária

Bulant, Carlos Alberto 06 March 2017 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-05-04T18:59:46Z No. of bitstreams: 1 ThesisBulant-FrenteVerso.pdf: 28359198 bytes, checksum: 3e4d2806f9cb5049e4739c99aaff7bf4 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-05-04T18:59:56Z (GMT) No. of bitstreams: 1 ThesisBulant-FrenteVerso.pdf: 28359198 bytes, checksum: 3e4d2806f9cb5049e4739c99aaff7bf4 (MD5) / Made available in DSpace on 2017-05-04T19:00:06Z (GMT). No. of bitstreams: 1 ThesisBulant-FrenteVerso.pdf: 28359198 bytes, checksum: 3e4d2806f9cb5049e4739c99aaff7bf4 (MD5) Previous issue date: 2017-03-06 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Coronary heart disease is one of the leading causes of death worldwide. Although several risk factors are well known; many lesions cannot be explained by these factors alone. The hypothesis of arteries developing lesions due to its morphology, known as geometric risk factors and/or due to hemodynamic forces, has been raised more than thirty years ago. Although investigators have found connection between geometric/hemodynamic variables and lesions, there exists no quantifiable index that helps physicians to predict actual risks. Even when a severe lesion is present, recent studies have found that some patients can develop collateral circulation to provide sufficient blood flow to the myocardium, thus avoiding ischemia. In turn, the gold standard for functional stenosis assessment is an invasive medical exam called Fractional Flow Reserve (FFR). Moreover, these studies are expensive, require highly qualify professionals and involve risks to the patient during intervention. In this context, the goals of the proposed thesis are (i) to fully characterize coronary arterial trees from a geometrical perspective, search for hereditary geometric features and correlations between morphology and disease; (ii) to construct a modeling methodology for the estimation of FFR making use of computational fluid dynamic models built on top of patient-specific medical images of coronary arterial networks. Results for goal (i) include the geometric characterization of a patient sample consisting of siblings. Several studies involving standard and non-traditional geometry-based indexes, in which associations between geometry and lesion presence was found, as well as indications of arterial geometry heritability between siblings. Regarding hemodynamic simulations in the context of FFR, i.e. goal (ii), a novel technique to define patient-specific boundary conditions in 3D models was presented and tested; the impact of image modality, i.e. coronary computed tomography (CCTA) and intravascular ultrasound (IVUS), on hemodynamics variables was assessed for the first time, which helps to better assess the results obtained from the combination of numerical simulations and medical images. A comparison of 3D and 1D CFD simulations for coronary blood flow based purely on FFR is presented. Several computational settings are compared to invasive measurements with results comparable to the state of the art. / A doença coronáriana é uma das principais causas de morte em todo o mundo. Embora vários fatores de risco sejam bem conhecidos; muitas lesões não podem ser explicadas apenas por esses fatores. A hipótese das artérias desenvolverem lesões devido à sua morfologia, conhecida como fatores de risco geométricos e/ou devido a forças hemodinâmicas, foi levantada há mais de trinta anos. Embora tenha sido encontrada uma conexão entre variáveis geométricas/hemodinâmicas e lesões, não existe um índice quantificável que ajude os médicos a prever os riscos reais. Mesmo quando uma lesão grave está presente, estudos recentes descobriram que alguns pacientes podem desenvolver circulação colateral para fornecer fluxo sanguíneo suficiente para o miocárdio, evitando assim a isquemia. Por sua vez, o padrão ouro para avaliar a funcionalidade de uma lesão é o exame médico invasivo chamado Reserva de Fluxo Fracionada (FFR por suas siglas em inglês). Além disso, esses estudos são caros, exigem profissionais altamente qualificados e envolvem riscos para o paciente durante a intervenção. Nesse contexto, os objetivos desta tese são (i) caracterizar completamente as artérias coronárias de uma perspectiva geométrica, buscar características geométricas hereditárias e correlações entre morfologia e doença; (ii) construir uma metodologia de modelagem para a estimativa do FFR, utilizando modelos da dinâmica dos fluidos computacional (CFD por suas siglas em inglês) construídos a partir de imagens médicas de artérias coronárias de pacientes específicos. Resultados para meta (i) incluem a caracterização geométrica de uma amostra de pacientes constituída por pares de irmãos. Vários estudos são realizados envolvendo índices padronizados e não tradicionais baseados na geometria, nos quais foram encontradas associações entre geometria e presença de lesão, bem como indicações de herdabilidade de geometria arterial entre irmãos. Em relação às simulações hemodinâmicas no contexto de FFR, isto é, meta (ii), é apresentada e testada uma nova técnica para definir condições de contorno específicas para cada paciente em modelos 3D; ainda, foi avaliado pela primeira vez o impacto da modalidade de imagem, em particular, tomografia computadorizada coronária (CCTA) e ultrassom intravascular (IVUS), sobre variáveis hemodinâmicas, o que ajuda a avaliar melhor os resultados obtidos pela combinação de simulações numéricas e imagens médicas. Também é apresentada uma comparação de simulações de CFD empregando modelos 3D e 1D do fluxo sanguíneo coronário focado puramente na estimação do FFR. Vários cenários são comparados com medidas invasivas com resultados similares aos encontrados no estado de arte da técnica.
28

Predição de qualidade de experiência em redes wimax em aplicações de video baseada em aspectos de qualidade de serviço

OLIVEIRA, Rosinei de Sousa 02 July 2011 (has links)
Submitted by Samira Prince (prince@ufpa.br) on 2012-09-24T17:03:07Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_PredicaoQualidadeExperiencia.pdf: 2330802 bytes, checksum: 50bcb0f2191549e093e966dc9f3a974e (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2012-09-26T14:44:29Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_PredicaoQualidadeExperiencia.pdf: 2330802 bytes, checksum: 50bcb0f2191549e093e966dc9f3a974e (MD5) / Made available in DSpace on 2012-09-26T14:44:29Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_PredicaoQualidadeExperiencia.pdf: 2330802 bytes, checksum: 50bcb0f2191549e093e966dc9f3a974e (MD5) Previous issue date: 2011 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A crescente utilização dos serviços de telecomunicações principalmente sem fio tem exigido a adoção de novos padrões de redes que ofereçam altas taxas de transmissão e que alcance um número maior de usuários. Neste sentido o padrão IEEE 802.16, no qual é baseado o WiMAX, surge como uma tecnologia em potencial para o fornecimento de banda larga na próxima geração de redes sem fio, principalmente porque oferece Qualidade de Serviço (QoS) nativamente para fluxos de voz, dados e vídeo. A respeito das aplicações baseadas vídeo, tem ocorrido um grande crescimento nos últimos anos. Em 2011 a previsão é que esse tipo de conteúdo ultrapasse 50% de todo tráfego proveniente de dispositivos móveis. Aplicações do tipo vídeo têm um forte apelo ao usuário final que é quem de fato deve ser o avaliador do nível de qualidade recebida. Diante disso, são necessárias novas formas de avaliação de desempenho que levem em consideração a percepção do usuário, complementando assim as técnicas tradicionais que se baseiam apenas em aspectos de rede (QoS). Nesse sentido, surgiu a avaliação de desempenho baseada Qualidade de Experiência (QoE) onde a avaliação do usuário final em detrimento a aplicação é o principal parâmetro mensurado. Os resultados das investigações em QoE podem ser usados como uma extensão em detrimento aos tradicionais métodos de QoS, e ao mesmo tempo fornecer informações a respeito da entrega de serviços multimídias do ponto de vista do usuário. Exemplos de mecanismos de controle que poderão ser incluídos em redes com suporte a QoE são novas abordagens de roteamento, processo de seleção de estação base e tráfego condicionado. Ambas as metodologias de avaliação são complementares, e se usadas de forma combinada podem gerar uma avaliação mais robusta. Porém, a grande quantidade de informações dificulta essa combinação. Nesse contexto, esta dissertação tem como objetivo principal criar uma metodologia de predição de qualidade de vídeo em redes WiMAX com uso combinado de simulações e técnicas de Inteligência Computacional (IC). A partir de parâmetros de QoS e QoE obtidos através das simulações será realizado a predição do comportamento futuro do vídeo com uso de Redes Neurais Artificiais (RNA). Se por um lado o uso de simulações permite uma gama de opções como extrapolação de cenários de modo a imitar as mesmas situações do mundo real, as técnicas de IC permitem agilizar a análise dos resultados de modo que sejam feitos previsões de um comportamento futuro, correlações e outros. No caso deste trabalho, optou-se pelo uso de RNAs uma vez que é a técnica mais utilizada para previsão do comportamento, como está sendo proposto nesta dissertação. / The increasing use of telecommunications services mainly wireless has demanded the adoption of new networking standards that offer higher data rates and reach a larger number of users. In this sense the IEEE 802.16 standard, which is based WiMAX emerges as a potential technology for providing broadband in the next generation of wireless networks, mainly because it offers Quality of Service (QoS) for voice streams natively, data and video. Regarding the video-based applications, there has been a steady growth in recent years. In 2011 it is expected that this type of content exceeds 50% of all traffic from mobile devices. Applications like video have a strong appeal to the end user who is who in fact should be the evaluator's level of perceived quality. Given this, we need new forms of performance assessment that take into account the perception of the user, thereby complementing traditional techniques that rely only on network aspects (QoS). In this sense, there was the performance evaluation based on Quality of Experience (QoE) assessment where the end user rather than the application is the main parameter measured. The results of investigations QoE can be used as an extension over the traditional methods of QoS, and at the same time provide information regarding the delivery of multimedia services from the viewpoint of the user. Examples of control mechanisms that may be included in networks that support new approaches are QoE routing process of selecting the base station and traffic conditioning. Both methods of evaluation are complementary, and if used in combination can generate a more robust assessment. However, the large amount of information hinders this combination. In this context, this paper's main objective is to create a methodology to predict video quality WiMAX networks with combined use of simulation techniques and Computational Intelligence (CI). From QoS and QoE parameters obtained from the simulations will be performed to predict the future behavior of the video with the use of Artificial Neural Networks (ANN). On the one hand the use of simulations allows a range of options such as extrapolation of scenarios to mimic the same real-world situations, the IC techniques allow faster analysis of the results so that they are made predictions of future behavior, correlations and others. In the case of this work, we chose to use RNA as it is the most used technique to predict the behavior, as is being proposed in this dissertation.
29

Metodologia de discretização espacial para o método radial de interpolação por pontos (RPIM) aplicada para solução numérica das equações de Maxwell

SOUSA, Washington César Braga de 04 March 2013 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2013-05-03T22:23:10Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_MetodologiaDiscretizacaoEspacial.pdf: 10601472 bytes, checksum: b4354bb62056e69310170ea2834e0ead (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2013-05-06T15:13:55Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_MetodologiaDiscretizacaoEspacial.pdf: 10601472 bytes, checksum: b4354bb62056e69310170ea2834e0ead (MD5) / Made available in DSpace on 2013-05-06T15:13:55Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_MetodologiaDiscretizacaoEspacial.pdf: 10601472 bytes, checksum: b4354bb62056e69310170ea2834e0ead (MD5) Previous issue date: 2013 / Neste trabalho, foi desenvolvido e implementado um método de discretização espacial baseado na lei de Coulomb para geração de pontos que possam ser usados em métodos meshless para solução das equações de Maxwell. Tal método aplica a lei de Coulomb para gerar o equilíbrio espacial necessário para gerar alta qualidade de discretização espacial para um domínio de análise. Este método é denominado aqui de CLDM (Coulomb Law Discretization Method ) e é aplicado a problemas bidimensionais. Utiliza-se o método RPIM (Radial Point Interpolation Method) com truncagem por UPML (Uniaxial Perfectlly Matched Layers) para solução das equações de Maxwell no domínio do tempo (modo TMz). / In this work, a new method, based on Coulomb's Law, has been developed and computationally implemented for performing spatial discretization for meshless methods. The new methodology, named Coulomb Law Discretization Method (CLDM), employs an adapted version of the Coulomb's vector force equation for obtaining a balanced distribution of nodes in space, in such way to achieve high discretization quality for the node set. The Radial Point Interpolation Method (RPIM) and the Uniaxial Perfectly Matched Layers (UPML) are used for solving Maxwell's Equations in time domain for 2D problems (TMz mode).
30

Estratégia de planejamento de redes de acesso de alta capilaridade baseada em tecnologia DSL: uma abordagem híbrida empírica e probabilística

CARDOSO, Diego Lisboa 26 March 2010 (has links)
Submitted by Irvana Coutinho (irvana@ufpa.br) on 2011-03-25T21:55:49Z No. of bitstreams: 1 CARDOSO, Diego Lisboa PPGEngenharia Elétrica tese.pdf: 1990062 bytes, checksum: 80be122205e774a6962464432b1dc73d (MD5) / Made available in DSpace on 2011-03-25T21:55:49Z (GMT). No. of bitstreams: 1 CARDOSO, Diego Lisboa PPGEngenharia Elétrica tese.pdf: 1990062 bytes, checksum: 80be122205e774a6962464432b1dc73d (MD5) Previous issue date: 2010-03-26 / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / A tecnologia DSL- Digital Subscriber Line permitem um acesso universal de banda larga, com redução de custo e tempo de implantação necessários, quando comparadas a outras redes de acesso. DSL pode ser considerada uma rede de banda larga de grande capilaridade, uma vez que utiliza uma combinação de infra-estrutura de telefonia existente e a tecnologia de transmissão. Não obstante, a rede DSL precisa ser amplamente compreendida, de maneira que suas principais vantagens não sejam suplantadas pela ineficiência geral do sistema. Esta tese apresenta uma abordagem baseada em estratégias que possibilitem o planejamento de redes de comunicação que a priori não foram implementadas para suportar fluxos Triple Play (pré-requisito obrigatório diante do perfil atual de usuários da Internet). Será mostrado que, a partir do uso de medidas reais e análises probabilísticas, é possível elaborar o planejamento de redes de comunicação, considerando os parâmetros físicos e lógicos, tais como: o caminho de transmissão, a influência do ruído na comunicação, os protocolos utilizados e tráfego de Triple Play (voz, vídeo e dados). / Recently, the Next Generation Network (NGN) have emerged as a viable alternative to merge the data, voice and video transmission over a single network, while maintaining reasonable standards for quality of service. However, despite the improvements brought by the NGN philosophy, many developing countries lack the infrastructure necessary to implement such technology. In this context, technologies such as DSL (Digital Subscriber Line) allows universal access to broadband, with reduced cost and time, when compared to others access networks. In many third world countries, DSL can be considered a broadband network of high capillarity, since it uses a combination of the existing telephony infrastructure and transmission technologies However, the DSL network needs to be widely understood, so that its main advantages are not outweighed by the inefficiency of the system. Therefore, the implementation of a planning policy to aid in this process, taking into account the current needs of applications (voice, video and data) is of major importance. This thesis presents an approach based on strategies to facilitate the planning of communication networks which, a priori, were not implemented to support triple play streams (a prerequisite, nowadays, for the current profile of Internet users). It will be shown that, from the use of actual measurements and probabilistic analysis, it is possible to enable the planning of communication networks, considering physical and software parameters, such as the transmission path, the influence of noise in the communication, the protocols used, and traffic of Triple Play (voice, video and data) applications.

Page generated in 0.1024 seconds