31 |
Caracterização geomorfométrica multiescala de modelos digitais de terreno. / Digital terrain models multi-scale geomorphometric characterization.Marcello Antonio Ventura Gorini 13 May 2011 (has links)
O estudo das formas de relevo através da geomorfometria ciência que quantifica as superfícies topográficas demanda que múltiplas escalas sejam consideradas simultaneamente. Esse fato soma-se à continuidade espacial inerente à topografia, a qual raramente apresenta limites naturais abruptos, para conceder um caráter vago às formas de relevo. Essa dupla vagueza, no entanto, é raramente abordada de forma explícita em trabalhos científicos que, usualmente, valem-se de limiares e definições subjetivas e arbitrárias para descreverem o relevo. Dentro desse contexto, o trabalho apresenta um método inovador de caracterização geomorfométrica multiescala de modelos digitais de terreno (MDTs). A abordagem proposta baseia-se no método de extração de feições morfométricas de Wood (1996), mas o modifica em um número de maneiras: (i) expandindo o número de classes identificadas; (ii) transformando-o em um sistema fuzzy, cujos conjuntos fuzzy são parametrizados automaticamente e; (iii) limitando localmente a escala máxima de análise de maneira não-supervisionada. Como resultado, obtém-se um mapa de feições fundamentais e um mapa de escalas fundamentais que, juntos, sintetizam a estrutura multiescala das superfícies. Além disso, são produzidos mapas de pertinências fuzzy e de índice de confusão para cada escala analisada, assim como versões multiescala dos mesmos. Para avaliar a transferibilidade e o caráter não-supervisionado do método, foram analisados cinco MDTs oriundos de bases de dados distintas, com diferentes resoluções e extensões espaciais, compreendendo regiões continentais, do fundo dos oceanos e do planeta Marte. Os resultados obtidos foram avaliados em relação à utilização de escalas e parametrizações fixas, atestando a capacidade do método de empreender caracterizações geomorfométricas mais completas do que abordagens convencionais. Duas aplicações foram ainda propostas: a parametrização geomorfométrica multiescala e o desenvolvimento de uma assinatura morfométrica multiescala, demonstrando claros caminhos para a continuidade da pesquisa. Como conclusão geral, não obstante a algumas limitações apontadas, considerou-se que o trabalho apresentado alcançou seu objetivo de prover a caracterização geomorfométrica multiescala de modelos digitais de terreno.
|
32 |
Modelagem de tumores avasculares: de autômatos celulares a modelos de multiescala / Avascular tumor modelling: from celular automata to multiscale modelsPaiva, Leticia Ribeiro de 21 March 2007 (has links)
Made available in DSpace on 2015-03-26T13:35:24Z (GMT). No. of bitstreams: 1
01 - capa_abstract.pdf: 134195 bytes, checksum: 45ccca4315780ed037185fce918f9327 (MD5)
Previous issue date: 2007-03-21 / Universidade Federal de Viçosa / Despite of the recent progress in cancer diagnosis and treatment, the survival rates of patients with tumors in unresectable locations, recurrent or metastatic tumors are still low. On the quest for alternative treatments, oncolytic virotherapy and encapsulation of chemotherapeutic drugs into nanoscale vehicles emerge as promissing strategies. However, several fundamental process and issues still must be understood in order to enhance the efficacy of these treatments. The nonlinearities and complexities inherent to tumor-oncolytic virus and tumor-drug interactions claim for a mathematical approach. Quantitative models allow to enlarge our understanding of the parameters influencing therapeutic outcomes, guide essays by indicating relevant physiological processes for further investigation, and prevent excessive experimentation. The multiescale models for virotherapy presented and discussed in this thesis suggest the appropriate traits an oncolytic virus must have and the less agressive ways to modulate the antiviral immune response in order to maximize the tumor erradication probability. Concerning the model for treatment with chemotherapeutic drugs encapsulated into nanoparticles, we focused on chimeric polymers attached with the doxorubicin drug, that recently are under active investigation. Using the same parameters that characterize these particles and the experimental protocols commonly used for their administration, our results indicate some of the basic features of these nanoparticles that should be developed in order to maximize the therapy's success. / A maior parte das terapias anti-câncer clinicamente usadas tem se desenvolvido empiricamente [1] mas a resposta do tumor e do organismo a essas terapias é não-linear. Portanto, modelos matemáticos podem ser ferramentas complementares (e talvez necessárias) para a compreensão da dinâmica da resposta à droga ou terapia no organismo. Nesta dissertação de mestrado alguns desses modelos são estudados. Em particular, propomos uma estratégia para crescer agregados isotrópicos do modelo de Eden na rede, um modelo estocástico básico para o crescimento de tumores avasculares, Os padrões gerados são caracterizados pela largura da interface, que é calculada considerando o centro da rede ou o centro de massa do agregado como referência, e pela diferença entre as probabilidades de crescimento axial e diagonal. Também foi estudado um modelo de multiescala para viroterapia em tumores avasculares em que as concentrações de nutrientes e vírus são descritas por equações de reação-difusão macroscópicas e as ações de células tumorais são governadas por regras estocásticas microscópicas. O objetivo central dessa parte do trabalho é a determinação do diagrama de estados no espaço de parâmetros. A faixa de parâmetros envolvidos foi estimada a partir de dados experimentais e a resposta das células tumorais à injeção viral apresenta quatro comportamentos diferentes, todos observados experimentalmente. Os valores dos parâmetros que geram predominantemente cada um desses comportamentos são determinados. / Não foi localizado o texto completo
O texto publicado trata-se do resumo
|
33 |
Análise multiescala de formas planas baseada em estatísticas da transformada de Hough / Multiscale shape analysis based on the Hough transform statisticsRamos, Lucas Alexandre [UNESP] 12 August 2016 (has links)
Submitted by Lucas Alexandre Ramos null (magrelolukas@hotmail.com) on 2016-09-12T11:55:17Z
No. of bitstreams: 1
Monografia_Final.pdf: 4956502 bytes, checksum: b3c792e3df597c4fabe2093c7ea8b357 (MD5) / Approved for entry into archive by Felipe Augusto Arakaki (arakaki@reitoria.unesp.br) on 2016-09-14T17:56:52Z (GMT) No. of bitstreams: 1
ramos_la_me_bauru.pdf: 4956502 bytes, checksum: b3c792e3df597c4fabe2093c7ea8b357 (MD5) / Made available in DSpace on 2016-09-14T17:56:52Z (GMT). No. of bitstreams: 1
ramos_la_me_bauru.pdf: 4956502 bytes, checksum: b3c792e3df597c4fabe2093c7ea8b357 (MD5)
Previous issue date: 2016-08-12 / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Atualmente, dada a difusão dos computadores, a tarefa de se reconhecer padrões visuais está sendo cada vez mais automatizada, em especial para tratar a vasta e crescente quantidade de imagens digitais existentes. Aplicações de diversas áreas como biometria, recuperação de imagens baseada em conteúdo e diagnóstico médico, se valem do processamento de imagens, bem como de técnicas de extração e análise de características das mesmas, a fim de identificar pessoas, objetos, gestos, textos, etc. As características básicas que são utilizadas para a análise de imagens são: cor, textura e forma. Recentemente, foi proposto um novo descritor de formas denominado HTS (Hough Transform Statistics), o qual se baseia no espaço de Hough para representar e reconhecer objetos em imagens por suas formas. Os resultados obtidos pelo HTS sobre bases de imagens públicas têm mostrado que este novo descritor, além de apresentar altas taxas de acurácia, melhores do que muitos descritores tradicionais propostos na literatura, é rápido, pois tem um algoritmo de complexidade linear. O objetivo deste trabalho foi explorar as possibilidades de representação multiescala do HTS e, assim, propor novos descritores de formas. Escala é um parâmetro essencial em Visão Computacional e a teoria de espaço-escala refere-se ao espaço formado quando se observa, simultaneamente, os aspectos espaciais de uma imagem em várias escalas, sendo a escala a terceira dimensão. Os novos métodos multiescala propostos foram avaliados sobre várias bases de dados e seus desempenhos foram comparados com o desempenho do HTS e com os principais descritores de formas encontrados na literatura. Resultados experimentais mostraram que os novos descritores propostos neste trabalho são mais rápidos e em alguns casos também mais precisos. / Currently, given the widespread of computers through society, the task of recognizing visual patterns is being more and more automated, in particular to treat the large and growing amount of digital images available. Applications in many areas, such as biometrics, content-based image retrieval, and medical diagnostic, make use of image processing, as well as techniques for the extraction and analysis of their characteristics, in order to identify persons, objects, gestures, texts, etc. The basic features that are used for image analysis are: color, texture and shape. Recently, it was proposed a new shape descriptor called HTS (Hough Transform Statistics), which is based on the Hough space to represent and recognize objects in images by their shapes. The results obtained by HTS on public image databases have shown that this new shape descriptor, besides showing high accuracy levels, better than many traditional shape descriptors proposed in the literature, is fast, since it has an algorithm of linear complexity. In this dissertation we explored the possibilities of a multiscale and scale-space representation of this new shape descriptor. Scale is a key parameter in Computer Vision and the theory of scale-space refers to the space formed when observing, simultaneously, special aspects of an image at several scales, being the scale the third dimension. The multiscale HTS methods were evaluated on the same databases and their performances were compared with the main shape descriptors found in the literature and with the monoscale HTS. Experimental results showed that these new descriptors are faster and can also be more accurate in some cases. / FAPESP: 2014/10611-0
|
34 |
Modelagem Matem?tica e Computacional de fen?menos eletrocin?ticos em meios porosos carregados eletricamenteSilva, Aldemir Cirilo da 05 August 2013 (has links)
Made available in DSpace on 2015-03-03T15:32:42Z (GMT). No. of bitstreams: 1
AldemirCS_DISSERT.pdf: 1952169 bytes, checksum: 3e6ed185e5fcc4c7c140617ac7e32f9d (MD5)
Previous issue date: 2013-08-05 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / In this work we present a mathematical and computational modeling of electrokinetic
phenomena in electrically charged porous medium. We consider the porous
medium composed of three different scales (nanoscopic, microscopic and macroscopic).
On the microscopic scale the domain is composed by a porous matrix and a solid phase.
The pores are filled with an aqueous phase consisting of ionic solutes fully diluted, and
the solid matrix consists of electrically charged particles.
Initially we present the mathematical model that governs the electrical double
layer in order to quantify the electric potential, electric charge density, ion adsorption
and chemical adsorption in nanoscopic scale. Then, we derive the microscopic model,
where the adsorption of ions due to the electric double layer and the reactions of protonation/
deprotana?~ao and zeta potential obtained in modeling nanoscopic arise in microscopic
scale through interface conditions in the problem of Stokes and Nerst-Planck
equations respectively governing the movement of the aqueous solution and transport of
ions. We developed the process of upscaling the problem nano/microscopic using the
homogenization technique of periodic structures by deducing the macroscopic model with
their respectives cell problems for effective parameters of the macroscopic equations. Considering
a clayey porous medium consisting of kaolinite clay plates distributed parallel,
we rewrite the macroscopic model in a one-dimensional version.
Finally, using a sequential algorithm, we discretize the macroscopic model via
the finite element method, along with the interactive method of Picard for the nonlinear
terms. Numerical simulations on transient regime with variable pH in one-dimensional
case are obtained, aiming computational modeling of the electroremediation process of
clay soils contaminated / Neste trabalho apresentamos uma modelagem matem?tica e computacional
de fen?menos eletrocin?ticos em meios porosos carregados eletricamente. Consideramos
o meio poroso composto por tr?s diferentes escalas (nanosc?pica, microsc?pica e macroscopica). Na escala microsc?pica o dom?nio ? composto por uma matriz porosa e uma
fase s?lida. Os poros s~ao preenchido por uma fase aquosa composta por solutos i?nicos
totalmente diluidos, e a matriz s?lida consiste de part?culas carregadas eletricamente.
Inicialmente apresentamos o modelo matem?tico que governa a dupla camada
el?trica com o intuito de quantificar o potencial el?trico, densidade de carga el?trica,
adsor??o de ?ons e adsor??o qu?mica na escala nanosc?pica. Em seguida, derivamos o
modelo microsc?pico, onde a adsor??o de ?ons devido a dupla camada el?trica e as rea??es
de protona??o/deprotana??o e potencial zeta obtidos na modelagem nanosc?pica, surgem
na escala microsc?pica atrav?s de condi??es de interface no problema de Stokes e equa??es
de Nerst-Planck que governam respectivamente o movimento da solu??o aquosa e o transporte
dos ?ons. Desenvolvemos o processo de upscaling do problema nano/microsc?pico,
utilizando a t?cnica de homogeneiza??o de estruturas peri?dicas, deduzindo o modelo
macrosc?pico com os respectivos problemas de c?lulas para os par?metros efetivos das
equa??es macrosc?picas. Considerando um meio poroso argiloso consistindo de placas da
argila caulinita distribu?das paralelamente, reescrevemos o modelo macrosc?pico numa
vers?o unidimensional.
Finalmente utilizando um algoritmo sequencial, discretizamos o modelo macrosc
?pico via m?todo dos elementos finitos, juntamente com o m?todo interativo de
Picard para os termos n?o lineares. Simula??es num?ricas em regime transiente com pH
vari?vel no caso unidimensional s?o obtidas, objetivando a modelagem computacional do
processo de eletroremedia??o de solos argilosos contaminados
|
35 |
Formulações multiescala localmente conservativas para a simulação de reservatórios de petróleo muito heterogêneos e anisotrópicosBARBOSA, Lorena Monteiro Cavalcanti 23 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-09T19:52:38Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Lorena Monteiro Cavalcanti Barbosa.pdf: 3341810 bytes, checksum: a11f35c60c2f472119efa988b23f0f6f (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-15T22:28:30Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Lorena Monteiro Cavalcanti Barbosa.pdf: 3341810 bytes, checksum: a11f35c60c2f472119efa988b23f0f6f (MD5) / Made available in DSpace on 2018-08-15T22:28:30Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Lorena Monteiro Cavalcanti Barbosa.pdf: 3341810 bytes, checksum: a11f35c60c2f472119efa988b23f0f6f (MD5)
Previous issue date: 2017-02-23 / Os métodos multiescala são capazes de fornecer soluções numéricas acuradas para as equações de fluxos em reservatórios de petróleo altamente heterogêneos, com custos computacionais consideravelmente baixos quando comparados ao custo da simulação diretamente na escala mais fina. Um desafio as metodologias multiescala, em particular ao Método de Volumes Finitos Multiescala (MsFVM), consiste na simulação do escoamento em meios muito anisotrópicos, ou em meios que apresentem regiões com elevados gradientes de permeabilidade (exemplo: meios fraturados e com barreiras), isto acontece devido à necessidade do desacoplamento nas fronteiras dos sub-domínios, ou seja, o uso das condições de contorno reduzidas para calcular os operadore multiescalas. Essas condições de contorno configuram-se no núcleo das metodologias multiescala, pois desacoplam os subproblemas, possibilitando a obtenção de soluções na escala mais fina, porém, por não considerarem os fluxos normais às fronteiras, geram problemas de conservação nestas regiões. No presente trabalho, apresentamos uma variante do método multiescala, denominado Método Iterativo Multiescala Modificado para Volume de Controle (I-MMVCM). O I-MMVCM elimina a necessidade de uso dos volumes fantasmas, melhorando a acurácia dos operadores multiescala, e consequentemente aumenta a eficiência do método. A pressão é calculada em cada volume da malha grossa primal, utilizando as pressões anteriormente calculadas pelo MsFVM como condições de contorno de Dirichlet. Para garantir conservação em todo o domínio utilizamos dois métodos de correção, que visam corrigir o fluxo na malha grossa primal. Adicionalmente, comparamos os resultados obtidos por dois Métodos de Volumes Finitos com Aproximação de Fluxo por Múltiplos Pontos (MPFA), o MPFA-O ou MPFA-TPS (Triangle Pressure Support) e o MPFA-FPS (Full Pressure Support). Para a solução do problema de saturação utilizamos o Método de Ponderação à Montante de Primeira Ordem (First Order Upwind Method - FOUM), método dos volumes finitos de alta ordem (Higher Order Finite Volume –HOFV) e um método de linhas de fluxos (Streamlines). Finalmente, o sistema de equações governantes é resolvido seguindo a estratégia IMPES (Implicit Pressure, Explicit Saturation). / The multiscale methods are cable to provide accurate numerical solutions for the flow equations in highly heterogeneous petroleum reservoirs, with considerably lower computational costs when compared to the computational cost of simulating directly on the fine scale. A challenge for multiscale methods, in particular for the Multiscale Finite Volume Method (MSFVM), consist in modeling flow in highly anisotropic oil reservoir, or in medium with high permeability gradients (eg fractured media and barriers), it happens due to necessity of the decoupling at the frontier of the sub-domains, thais is, the use of reduced boundary conditions for calculate the multiscale operator. These boundary conditions are the core of all multiscale methodologies, they uncouple the problem into smaller subproblems, making it possible to obtain solutions on the fine scale, but since they do not consider the flows normal to the boundaries, they break the mass conservation law in these regions. In the present work, we present a variant of the multiscale method called the Iterative Modified Multiscale Control Volume Method (I-MMVCM). The I-MMVCM eliminates the need to use ghost volumes, improving the accuracy of multiscale operators, therefore increasing the efficiency of the method. The pressure is calculated on each volume of the primal coarse mesh, using the pressures previously calculated by the MsFVM as Dirichlet boundary conditions. In order to reimpose conservation in the domain we use two correction methods, which are designed to correct the upscaling flow of the primal coarse mesh. In addition, we compared the results obtained by two Finite Volume Methods with Multi-Point Flow Approximation (MPFA), the MPFA-O or MPFA-TPS (Triangle Pressure Support) and MPFA-FPS (Full Pressure Support). To solve the transport problem we use the First Order Upwind Method (FOUM), high order finite volume method (HOFV) and the method of the streamlines. Finally, the system of governing equations is solved using the Implicit Pressure Explicit Saturation (IMPES) strategy.
|
36 |
Desenvolvimento de métodos para simulação multiescala de materiais / Development of methods for the multiscale simulation of materialsFaccin, Giovani Manzeppi, 1982- 31 August 2007 (has links)
Orientador: Edison Zacarias da Silva / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Fisica Gleb Wataghin / Made available in DSpace on 2018-08-09T02:46:53Z (GMT). No. of bitstreams: 1
Faccin_GiovaniManzeppi_M.pdf: 18605908 bytes, checksum: 754a46d31802e007eede531e959a8d17 (MD5)
Previous issue date: 2007 / Resumo: A presente dissertação tem como proposta iniciar o desenvolvimento de um sistema de softwares para a simulação multiescala de materiais, com foco na nanociência. Para esta finalidade um sistema de dinâmica molecular foi construído partindo-se do zero. A partir deste sistema, diversas aplicações foram feitas em problemas envolvendo o estudo de propriedades térmicas e estruturais de pequenos aglomerados metálicos, assim como a evolução de fraturas dinâmicas. Uma vez validado o sistema através destes cálculos, alguns componentes necessários ao acoplamento dinâmico entre a escala de estrutura atômica, modelada através da dinâmica molecular, e a escala de meios contínuos, modelada através do método dos elementos finitos, foram desenvolvidos. A partir destes componentes, algumas simulações ilustrativas do funcionamento do acoplamento entre escalas foram então realizadas / Abstract: The present work's objetive is the development of a software system for the multiscale simulation of materials focused on nanoscience applications. To achieve this goal, a molecular dynamics system was built from scratch. Using this system, the structural and thermal properties of small metallic clusters and also the problem of dynamic fracture were studied. Once the system was validated with these problems, some components necessary to the coupling between the atomic scale, modelled through molecular dynamics, and the continuum scale, modelled through the finite element method, were developed. Using these components, simulations that illustrate the coupling between scales were then performed. / Mestrado / Física da Matéria Condensada / Mestre em Física
|
37 |
Análise do sinal de variabilidade da frequência cardíaca através de estatística não extensiva: taxa de q-entropia multiescala / Heart rate variability analysis through nonextensive statistics: multiscale q-entropy rateLuiz Eduardo Virgilio da Silva 28 February 2013 (has links)
O corpo humano é um sistema complexo composto por vários subsistemas interdependentes, que interagem entre si em várias escalas. Sabe-se que essa complexidade fisiológica tende a diminuir com a presença de doenças e com o avanço da idade, reduzindo a capacidade de adaptação dos indivíduos. No sistema cardiovascular, uma das maneira de se avaliar sua dinâmica regulatória é através da análise da variabilidade da frequência cardíaca (VFC). Os métodos clássicos de análise da VFC são baseados em modelos lineares, como é o caso da análise espectral. Contudo, como os mecanismos fisiológicos de regulação cardíaca apresentam características não lineares, as análises utilizando tais modelos podem ser limitadas. Nos últimos tempos, várias propostas de métodos não lineares têm surgido. Porém, não se sabe de uma medida consistente com o conceito de complexidade fisiológica, onde tanto os regimes periódicos como aleatórios são caracterizados como perda de complexidade. Baseado no conceito de complexidade fisiológica, esta tese propõe novos métodos de análise não lineares para séries de VFC. Os métodos consistem da generalização de medidas de entropia já existentes, utilizando a mecânica estatística não aditiva de Tsallis e a técnica de geração de dados substitutos. Foi definido um método, chamado de qSDiff, que calcula a diferença entre a entropia de um sinal e a entropia média de suas séries substitutas. O método de entropia utilizado consiste de uma generalização da entropia amostral (SampEn), utilizando o paradigma não aditivo. Das séries qSDiff foram extraídos três atributos, que foram avaliados como possíveis índices de complexidade fisiológica. A entropia multiescala (MSE) também foi generalizada seguindo o paradigma não aditivo, e os mesmos atributos foram calculados em várias escalas. Os métodos foram aplicados em séries reais de VFC de humanos e de ratos, bem como em um conjunto de sinais simulados, formado por ruídos e mapas, este último em regimes caótico e periódico. O atributo qSDiffmax demonstrou ser consistente para baixas escalas ao passo que os atributos qmax e qzero para escalas maiores, separando e classificando os grupos quanto à complexidade fisiológica. Observou-se ainda uma possível relação entre estes q-atributos com a presença de caos, que precisa ser melhor estudada. Os resultados ainda apontam a possibilidade de que, na insuficiência cardíaca, ocorre maior degradação nos mecanismos de baixa escala, de curto período, ao passo que na fibrilação atrial o prejuízo se estenderia para escalas maiores. As medidas baseadas em entropia propostas são capazes de extrair informações importantes das séries de VFC, sendo mais consistentes com o conceito de complexidade fisiológica do que a SampEn (clássica). Reforçou-se a hipótese de que a complexidade se revela em múltiplas escalas de um sinal. Acreditamos que os métodos propostos podem contribuir bastante na análise da VFC e também de outros sinais biomédicos. / Human body is a complex system composed of several interdependent subsystems, interacting at various scales. It is known that physiological complexity tends to decrease with disease and aging, reducing the adaptative capabilities of the individual. In the cardiovascular system, one way to evaluate its regulatory dynamics is through the analysis of heart rate variability (HRV). Classical methods of HRV analysis are based on linear models, such as spectral analysis. However, as the physiological mechanisms regulating heart rate exhibit nonlinear characteristics, analyzes using such models may be limited. In the last years, several proposals nonlinear methods have emerged. Nevertheless, no one is known to be consistent with the physiological complexity theory, where both periodic and random regimes are characterized as complexity loss. Based on physiological complexity theory, this thesis proposes new methods for nonlinear HRV series analysis. The methods are generalization of existing entropy measures, through Tsallis nonadditive statistical mechanics and surrogate data. We defined a method, called qSDiff, which calculates the difference between the entropy of a signal and its surrogate data average entropy. The entropy method used is a generalization of sample entropy (SampEn), through nonadditive paradigm. From qSDiff we extracted three attributes, which were evaluated as potential physiological complexity indexes. Multiscale entropy (MSE) was also generalized following nonadditive paradigm, and the same attributes were calculated at various scales. The methods were applied to real human and rats HRV series, as well as to a set of simulated signals, consisting of noises and maps, the latter in chaotic and periodic regimes. qSDiffmax attribute proved to be consistent for low scales while qmax and qzero attributes to larger scales, separating and ranking groups in terms of physiological complexity. There was also found a possible relationship between these q-attributes with the presence of chaos, which must be further investigated. The results also suggested the possibility that, in congestive heart failure, degradation occurs rather at small scales or short time mechanisms, while in atrial fibrillation, damage would extend to larger scales. The proposed entropy based measures are able to extract important information of HRV series, being more consistent with physiological complexity theory than SampEn (classical). Results strengthened the hypothesis that complexity is revealed at multiple scales. We believe that the proposed methods can contribute to HRV as well as to other biomedical signals analysis.
|
38 |
Implementação computacional paralela da homogeneização por expansão assintótica para análise de problemas mecânicos em 3DQuintela, Bárbara de Melo 31 January 2011 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-03T14:15:37Z
No. of bitstreams: 1
barbarademeloquintela.pdf: 17938706 bytes, checksum: 9ab0cb4d4226bdefe7051c92e73feec9 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T20:15:36Z (GMT) No. of bitstreams: 1
barbarademeloquintela.pdf: 17938706 bytes, checksum: 9ab0cb4d4226bdefe7051c92e73feec9 (MD5) / Made available in DSpace on 2017-03-06T20:15:36Z (GMT). No. of bitstreams: 1
barbarademeloquintela.pdf: 17938706 bytes, checksum: 9ab0cb4d4226bdefe7051c92e73feec9 (MD5)
Previous issue date: 2011-01-31 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais / A Homogeneização por Expansão Assintótica (HEA) é uma técnica multiescala
empregada ao cálculo de propriedades efetivas de meios contínuos com estrutura periódica.
As principais vantagens desta técnica são a redução do tamanho do problema a resolver e
a possibilidade de se empregar uma propriedade homogeneizada que guarda informações
da microestrutura heterogênea. Quando associada ao Método dos Elementos Finitos
(MEF), a HEA demanda o emprego de malhas que permitam a imposição de condições
de contorno periódicas – sendo portanto necessário especificar tal particularidade quando
da geração dos modelos em MEF. Tais modelos representam as células periódicas, que
são volumes representativos do meio heterogêneo e, em alguns casos, apresentam uma
complexidade geométrica e física que torna imprescindível o emprego de malhas com alto
grau de refinamento – levando a um custo computacional significativo.
Este trabalho tem por objetivo a obtenção de um programa em Elementos Finitos para
a aplicação da HEA à Elasticidade em 3D, empregando técnicas de programação paralela.
Foram desenvolvidas versões do programa em 2D: uma sequencial em C e duas paralelas
empregando OpenMP e CUDA. Foi implementado com sucesso o programa HEA3D em
uma versão sequencial, em linguagem FORTRAN e uma paralela, empregando OpenMP.
Para validação dos programas, foram analisadas células periódicas bifásicas e os resultados
apresentaram boa concordância com valores experimentais e numéricos disponíveis na
literatura. A versão paralela obteve expressivos ganhos de desempenho, com acelerações
de desempenho de até 5.3 vezes em relação a versão sequencial. / The Asymptotic Expansion Homogenization (AEH) is a multiscale technique applied to
estimate the effective properties of heterogeneous media with periodical structure. The
main advantages of this technique are the reduction of the problem size to be solved
and the ability to employ an homogenized property that keeps information from the
heterogeneous microstructure. In association with the Finite Element Method (FEM),
the AEH requires the application of periodic boundary conditions, which must be taken
into account during the generation of FE meshes. Such models represent periodic cells,
which are representative volumes for heterogeneous media and, in some cases, present a
geometric and physics complexity that demands refined meshes, leading to a significant
computational cost.
The aim of this work is to develop a parallel program that applies both FEM and AEH
to estimate the elasticity properties of 3D bodies. A sequential version of the 2D program
using C, and parallel versions using OpenMP and CUDA were implemented. A sequential
version of the program, called HEA3D, was successfully implemented using FORTRAN.
Also, a parallel version of the code was implemented using OpenMP. The validation of
the codes consisted of comparisons of the numerical results obtained, with numerical
and experimental data available in the literature, showing good agreement. Significant
speedups were obtained by the parallel version of the code, achieving speedups up to 5.3
times over its sequential version.
|
39 |
Management of integrity constraints for multi-scale geospatial data = Gerenciamento de restrições de integridade para dados geoespaciais multi-escala / Gerenciamento de restrições de integridade para dados geoespaciais multi-escalaLongo, João Sávio Ceregatti, 1987- 22 August 2018 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-22T06:24:16Z (GMT). No. of bitstreams: 1
Longo_JoaoSavioCeregatti_M.pdf: 3005926 bytes, checksum: 986140c2ac8b7fc686b351fb6ce666fb (MD5)
Previous issue date: 2013 / Resumo: Trabalhar em questões relativas a dados geoespaciais presentes em múltiplas escalas apresenta inúmeros desafios que têm sido atacados pelos pesquisadores da área de GIS (Sistemas de Informação Geográfica). De fato, um dado problema do mundo real deve frequentemente ser estudado em escalas distintas para ser resolvido. Outro fator a ser considerado é a possibilidade de manter o histórico de mudanças em cada escala. Além disso, uma das principais metas de ambientes multi-escala _e garantir a manipulação de informações sem qualquer contradição entre suas diferentes representações. A noção de escala extrapola inclusive a questão espacial, pois se aplica também, por exemplo, _a escala temporal. Estes problemas serão analisados nesta dissertação, resultando nas seguintes contribuições: (a) proposta do modelo DBV (Database Version) multi-escala para gerenciar de forma transparente dados de múltiplas escalas sob a perspectiva de bancos de dados; (b) especificação de restrições de integridade multi-escala; (c) implementação de uma plataforma que suporte o modelo e as restrições, testados com dados reais multi-escala / Abstract: Work on multi-scale issues concerning geospatial data presents countless challenges that have been long attacked by GIScience (Geographic Information Science) researchers. Indeed, a given real world problem must often be studied at distinct scales in order to be solved. Another factor to be considered is the possibility of maintaining the history of changes at each scale. Moreover, one of the main goals of multi-scale environments is to guarantee the manipulation of information without any contradiction among the different representations. The concept of scale goes beyond issues of space, since it also applies, for instance, to time. These problems will be analyzed in this thesis, resulting in the following contributions: (a) the proposal of the DBV (Database Version) multi-scale model to handle data at multiple scales from a database perspective; (b) the specification of multi-scale integrity constraints; (c) the implementation of a platform to support model and constraints, tested with real multi-scale data / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
|
40 |
Uso de técnicas de recuperação de imagens para o problema de reidentificação de pessoas / Content-based image retrieval techniques applied to the person reidentification problemRocca Layza, Vladimir Jaime, 1987- 27 August 2018 (has links)
Orientadores: Ricardo da Silva Torres, Hélio Pedrini / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-27T11:52:06Z (GMT). No. of bitstreams: 1
RoccaLayza_VladimirJaime_M.pdf: 7769260 bytes, checksum: a60ae46083facfc74cd79a4ab0c83c23 (MD5)
Previous issue date: 2015 / Resumo: Vários sistemas de vigilância baseados no uso de múltiplas câmeras têm sido propostos recentemente. No entanto, a identificação de pessoas em sequências de vídeos obtidas por várias câmeras com vistas não sobrepostas, comumente conhecida como reidentificação de pessoas, é um problema em aberto. As razões para que este problema seja considerado desafiador referem-se principalmente às restrições nas quais o problema deve ser resolvido. Estas restrições são definidas a partir das características do cenário e dos objetos de interesse (as pessoas): primeiro, as características biométricas de pessoas não podem ser utilizadas como características discriminantes; segundo, a aparência das pessoas muda drasticamente em virtude de variações na posição, iluminação e parâmetros de câmera. Tais restrições fazem com que uma mesma pessoa possa ser observada por múltiplas câmeras como uma pessoa diferente para cada uma delas. Nesta pesquisa, busca-se investigar alternativas para a criação de sistemas de vigilância visando à reidentificação de pessoas. Foram empregadas técnicas de recuperação de imagens por conteúdo tais como descritores de imagens tradicionais e propostos recentemente, análise multiescala, e técnicas de rank aggregation. Os experimentos realizados consideram a utilização de quatro bases de dados comumente utilizadas na avaliação de sistemas de reidentificação de pessoas. Os resultados obtidos mostraram que as técnicas de recuperação de imagens por conteúdo são promissoras para a reidentificação de pessoas, obtendo resultados comparáveis aos métodos do estado da arte / Abstract: Several surveillance systems based on the use of multiple cameras have been proposed recently. However, the identification of people in video sequences obtained from several cameras with non-overlapping views, commonly known as the person reidentification problem, is still an open problem. Person reidentification is a challenging problem due to the constraints under which the problem should be solved. These constraints come from the characteristics of the scenario and the objects of interest (people): first, biometric features may not be used as discriminant information; second, appearance is dramatically modified by changes in position, lighting conditions, and camera parameters. Therefore, in these conditions a unique person can be ''seen'' as a distinct person by different cameras. This research is focused on the investigation of alternatives for the creation of surveillance systems aiming at person reidentification. We intend to use content-based image retrieval techniques, such as traditional and recently proposed image descriptors, multiscale analysis, and rank aggregation approaches. Conducted experiments considered the use of four different datasets, commonly used in the evaluation of person reidentification systems. Obtained results show that the content-based image retrieval techniques are promising to reidentify people, producing equivalent results to the state-of-the-art methods / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
|
Page generated in 0.1605 seconds