• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 565
  • 150
  • 11
  • 11
  • 11
  • 11
  • 8
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 722
  • 722
  • 223
  • 176
  • 162
  • 162
  • 80
  • 80
  • 78
  • 78
  • 74
  • 74
  • 72
  • 68
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

ONNIS-GI: uma rede neural oscilatória para segmentação de imagens implementada em arquitetura maciçamente paralela

Fernandes, Dênis January 2004 (has links)
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.
332

A procedural model for snake skin texture generation

Pinheiro, Jefferson Magalhães January 2017 (has links)
Existem milhares de espécies de serpentes no mundo, muitas com padrões distintos e intricados. Esta diversidade se torna um problema para usuários que precisam criar texturas de pele de serpente para aplicar em modelos 3D, pois a dificuldade em criar estes padrões complexos é considerável. Nós primeiramente propomos uma categorização de padrões de pele de serpentes levando em conta suas características visuais. Então apresentamos um modelo procedural capaz de sintetizar uma vasta gama de textura de padrões de pele de serpentes. O modelo usa processamento de imagem simples (tal como sintetizar bolinhas e listras) bem como autômatos celulares e geradores de ruído para criar texturas realistas para usar em renderizadores modernos. Nossos resultados mostram boa similaridade visual com pele de serpentes reais. As texturas resultantes podem ser usadas não apenas em computação gráfica, mas também em educação sobre serpentes e suas características visuais. Nós também realizamos testes com usuários para avaliar a usabilidade de nossa ferramenta. O escore da Escala de Usabilidade do Sistema foi de 85:8, sugerindo uma ferramenta de texturização altamente efetiva. / There are thousands of snake species in the world, many with intricate and distinct skin patterns. This diversity becomes a problem for users who need to create snake skin textures to apply on 3D models, as the difficulty for creating such complex patterns is considerable. We first propose a categorization of snake skin patterns considering their visual characteristics. We then present a procedural model capable of synthesizing a wide range of texture skin patterns from snakes. The model uses simple image processing (such as synthesizing spots and stripes) as well as cellular automata and noise generators to create realistic textures for use in a modern renderer. Our results show good visual similarity with real skin found in snakes. The resulting textures can be used not only for computer graphics texturing, but also in education about snakes and their visual characteristics. We have also performed a user study to assess the usability of our tool. The score from the System Usability Scale was 85:8, suggesting a highly effective texturing tool.
333

Criando roadmaps a partir de estados de configuração uniformemente distribuídos / Creating roadmaps from uniform distributed configuration states

Ughini, Cleber Souza January 2007 (has links)
A geração de bons movimentos em tempo real para corpos com muitos graus de liberdade ainda é um desafio. Uma quantidade elevada de graus de liberdade aumenta de forma exponencial a quantidade de posições diferentes que um determinado corpo pode obter. Fazer uso dessa quantidade de possibilidades para gerar movimentos complexos pode ser extremamente útil para planejamento de movimentos de robôs ou personagens virtuais, porém incrivelmente caro em termos computacionais. Existem muitos algoritmos que se baseiam no uso de mapas de caminhos (chamados roadmaps) para trabalhar com corpos com muitos graus de liberdade. Um roadmap funciona como uma coletânea de poses de um corpo interligadas entre si, onde cada ligação representa uma possibilidade de transição livre de colisões. Geralmente as técnicas que utilizam roadmaps usam abordagens determinísticas ou aleatórias para atingir o objetivo. Através de métodos determinísticos é possível explorar de forma mais uniforme o espaço de configuração, garantindo uma melhor cobertura e qualidade do roadmap. Já as abordagens aleatórias, geralmente permitem um melhor desempenho e, principalmente, tornam viáveis a aplicação de uma solução para corpos com muitos graus de liberdade. Neste trabalho é proposto um método determinístico adaptável para a geração de roadmaps (ADRM) que provê uma cobertura adequada do espaço de configuração em um tempo perfeitamente aceitável em comparação a outros métodos. Para obter isso, é feita em primeiro lugar uma classificação de todos os DOFs do modelo e, então, essa classificação é usada como parâmetro para decidir quantas amostras serão geradas de cada DOF. A combinação entre as amostras de todos os DOFs gera a quantidade total de amostras. Para validação do novo método foram executados diversos testes em ambientes distintos. Os testes foram avaliados através da comparação com outras técnicas existentes, em quesitos como tempo de geração e cobertura do espaço de configuração. Os resultados demonstram que o método atinge uma cobertura do espaço de configuração muito boa, em um tempo aceitável. / The creation of good real time movements for bodies with many degrees of freedom (DOF) still remains a challenge. A great amount of DOFs increase, in an exponential way, the quantity of different positions that a body can assume. Making use of that amount of possibilities to generate complex movements can be useful for planning robots’ movements or even to animate virtual characters, however it is extremely expensive in computational terms. There are many algorithms that are based on the use of roadmaps to work with bodies with many degrees of freedom. A roadmap works as a collection of valid body’s positions interconnected, where each connection represents a possibility of a transaction free of collisions. Usually, the techniques which make use of roadmaps follow deterministic or probabilistic approaches to get to the objective. Trough deterministic methods it is possible to explore in a more uniform way the configuration’s space, assuring a better covering and quality of the roadmap. Therefore, probabilistic (or random) approaches allow a better performance and, mainly, make possibly the application of a solution for bodies with higher degrees of freedom. This work proposes a deterministic method applicable to roadmaps generation (ADRM) which provides an adequate covering of the configuration’s space in a completely acceptable time range comparing to other rates. To achieve this goal, first of all a classification of all of the DOFs of the model is made and, then, this classification is used as a parameter to decide how many samples will be generated of each DOF. The combining between the samples of all of the DOFs generates the total amount of samples. To validate the new method, several tests were executed at different environments. The tests were evaluated trough the comparison with other existents techniques, using criteria like the time spent in generating a roadmap and covering of the space of configuration. The results show us that the method achieves a satisfactory covering of the space configuration in an acceptable time range.
334

Beyond digital, imagens, and forensics : towards a regulation of trust in multimedia communication / Além da análise forense e de imagens em busca da regulamentação de confiança em comunicação multimídia

Schetinger, Victor Chitolina January 2018 (has links)
Esta tese discute o papel da Análise Forense de Imagens como reguladora de mídia digital na sociedade. Isto inclui um estudo com mais de 400 indivíduos para determinar suas capacidades de detectar edições em imagens. Os resultados desse experimento indicam que humanos são facilmente enganados por imagens digitais, tendo dificuldades em diferenciar entre imagens pristinas e editadas. A tese então analisa a efetividade do arsenal de análise forense de imagens contra o estado-da-arte de composição de imagens. Através da análise de padrões fundamentais de imagens, as técnicas forenses são capazes de detectar a presença da maioria das operações de composição testadas. A tese então apresenta uma abordagem alternativa para análise forense de imagens, baseada na geração automática de planos. Ao tratar o processo de inspeção de uma imagem como um plano composto de múltiplos passos, propusemos uma arquitetura que é capaz de indicar os passos necessários para analisar uma imagem. Os planos são baseados em uma modelagem formal do conhecimento e técnicas forenses, de modo que possam ser traduzidos em passos a serem executados. A tese então demonstra que os limites de tal abordagem dependem da dificuldade de validar tal solução. Isso é uma consequência da natureza dos problemas de análise forense de imagens: essencialmente, são problemas de confiança distribuída entre indivíduos com acesso limitado à informação. Essa configuração é analisada de diferentes perspectivas em busca dos limites práticos para a análise forense de imagens digitais. Os resultados dessa análise sugerem que a área falha em produzir soluções acessíveis para a sociedade não por limitações técnicas, mas pela falta de um engajamento multi-disciplinar. A tese então discute como paradoxos filosóficos surgem naturalmente em cenários de análise forense de imagens. A análise forense de imagens digitais lida, essencialmente, com comunicação humana e, como tal, está sujeita a todas suas complexidades. Finalmente, é argumentado que o caminho para construir soluções úteis para a sociedade requer um esforço coletivo de diferentes disciplinas do conhecimento. É responsabilidade da comunidade forense desenvolver uma teoria epistemológica comum e acessível para este projeto coletivo. / This thesis discusses the role of Digital Image Forensics as a regulator of digital media in society. This includes a perceptual study with over 400 subjects to assess their ability to notice editing in images. The results of such experiment indicate that humans are easily fooled by digital images, not being able to tell apart edited and pristine images. The thesis then analyzes the effectiveness of the available arsenal of digital image forensics technology to detect image editing performed by state-of-the-art image-compositing techniques. By analyzing fundamental image patterns, forensics techniques can effectively detect the occurrence of most types of image compositing operations. In response to these two studies, the thesis presents an alternative approach to digital image forensics, based on automated plan generation. By treating the image inspection process as a plan comprised of different steps, it proposes an architecture that is able to guide an analyst choosing the next best step for inspecting an image. The generated plans are flexible, adapting on the fly to the observed results. The plans are based on a formal modelling of current forensics knowledge and techniques, so that they can be translated in steps to be executed. The thesis then shows that the limits of such an approach lie in the difficulty to validate results, which is a consequence of the setup of forensics problems: they are problems of distributed trust among parties with limited information. This scenario is analyzed from different perspectives in search for the practical limits of Digital Image Forensics as a whole. The results of such an analysis suggest that the field is lacking in providing practical and accessible solutions to society due to limited engagement in multidisciplinary research rather than due to limited technical proficiency. The thesis then discusses how paradoxes from philosophy, mathematics, and epistemology arise naturally in both real forensics scenarios, and in the theoretical foundations of the field. Digital Image Forensics ultimately deals with human communication and, as such, it is subject to all its complexities. Finally, it is argued that the path for providing useful solutions for society requires a collective engagement from different disciplines. It is the responsibility of the forensics community to develop a common, accessible epistemological framework for this collective enterprise.
335

Uma abordagem de exploração volumétrica baseada em agrupamento e redução dimensional para apoiar a definição de funções de transferência multidimensionais /

Santos, Rafael Silva. January 2018 (has links)
Orientador: Danilo Medeiros Eler / Banca: Carla Maria Dal Sasso Freitas / Banca: Milton Hirokazu Shimabukuro / Resumo: Funções de transferência (FTs) são uma parte crucial do processo de exploração volumétrica em Visualização Direta de Volumes. Nesse processo, FTs desempenham duas tarefas principais: a classificação de materiais e o mapeamento de informações presentes nos dados para propriedades visuais. A busca por uma solução que lide com ambas as tarefas envolve uma série de fatores que, em conjunto, são um dos maiores desafios de visualização volumétrica. Neste trabalho, propomos uma abordagem de exploração que tem por objetivo envolver todo escopo e simplificar tanto a definição de FTs multidimensionais quanto a manipulação de datasets. A abordagem se organiza em três componentes: uma heurística baseada em entropia e correlação que guia a seleção de atributos para formação do espaço de entrada; um método de classificação que emprega a técnica de redução de dimensionalidade FastMap e a técnica de agrupamento DBSCAN para proporcionar a descoberta semiautomática de características volumétricas; e uma interface simplificada que, atrelada ao método de classificação, produz um gráfico de dispersão 2D de características para a exploração do volume. Inicialmente, o usuário deve analisar o ranking de atributos para formar um espaço multidimensional. Depois, deve escolher parâmetros para gerar o gráfico de características. Finalmente, deve navegar por esse gráfico a fim de identificar materiais ou estruturas relevantes. Nos experimentos realizados para avaliar a abordagem, os mecanismos... / Abstract: Transfer functions (TFs) are a crucial part of the volume exploration process in Direct Volume Rendering. In this process, TFs perform two main tasks: material classification and mapping of information to visual properties. The search for a solution that copes with both tasks involves a number of factors that, together, is one of the greatest challenges of volume visualization. In this work, we propose an exploration approach that aims to involve the entire scope and a simplify both the definition of multidimensional TFs and the manipulation of datasets. The approach is organized into three components: a heuristic based on entropy and correlation that guides the selection of attributes to conceive the input space; a classification method, which uses the dimensionality reduction technique FastMap and the clustering technique DBSCAN to provide a semiautomatic features finding; and a simplified interface that, linked to the previous method, provide a 2D scatter plot of features for volume exploration. Initially, the user must analyze at the ranking of attributes to form a multidimensional space. Afterwards, it must choice parameters to generate the scatter plot. Finally, it must navigate through this chart in order to reveal relevant materials and features. In the experiments performed to evaluate the approach, the available mechanisms allow to effectively find and isolate features inserted in all investigated datasets. It is also pointed out as contribution a low computational ... / Mestre
336

Avaliação da compressão de dados e da qualidade de imagem em modelos de animação gráfica para web : uma nova abordagem baseada em complexidade de Kolmogorov

Campani, Carlos Antonio Pereira January 2005 (has links)
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
337

Explorando as Villas de Palladio uma leitura contemporânea sobre composição arquitetônica

Barbosa, Rinaldo Ferreira January 2005 (has links)
O Renascimento é um período de mudança no pensamento da civilização ocidental, principalmente no campo das artes e da ciência. A partir de Brunelleschi a arquitetura se estabelece como profissão tal como hoje é conhecida, dotada do status de ciência, isto é, passível de registro, sistematização, publicação e crítica. Para isto, o tratado de Vitrúvio serve de base de pesquisa para a fundamentação intelectual da arquitetura do Renascimento e na elaboração dos tratados deste período, elaborados por Alberti, Serlio e Palladio, entre outros. Palladio, através de seu tratado, I Quattro Libri di Architettura, nos deixa seu legado teórico e profissional, diferenciado dos demais na medida em que é exemplificado através de seus projetos. Neste legado, as villas palladianas constituem um referencial tipológico da arquitetura ocidental, que se difunde através dos séculos seguintes e que revela princípios e métodos de projeto que são independentes da questão estilística do Renascimento. O presente trabalho aborda as questões de entendimento da mudança do pensamento arquitetônico no Renascimento; suas referências na formação de Palladio; e a influência deste processo na elaboração e sistematização de projeto através das villas. Os projetos das villas palladianas são explorados através de sua reconstrução a partir da computação gráfica, apresentados no final deste trabalho. Sob esta ótica a dissertação estuda a presença destes modelos tipológicos e explora as operações de projeto elaboradas por Palladio no conjunto das villas representadas no tratado O manuseio destes projetos permitiu consolidar a análise do conjunto destas obras, permitindo o seu agrupamento segundo operações de projeto identificadas na análise e apresentados a seguir, interpretando as villas palladianas sob uma ótica contemporânea de representação e análise, extraindo seus valores como sistematização do conhecimento arquitetônico e referência de metodologia projetual.
338

Aplicação da Técnica de Rastreamento Bidirecional à Síntese de Objetos Transparentes / Application of the bidirectional ray tracing method in rendering of the transparent objects

Assis, Gilda Aparecida de January 1998 (has links)
Este trabalho apresenta uma proposta de aplicação da técnica de ray-tracing bidirecional em ambientes esféricos, contendo fontes luminosas puntiformes. Trata-se de um trabalho que discorre no contexto da área de Síntese de Imagens Realísticas dentro da Computação Gráfica. O trabalho tem como principal contribuição a definição e o desenvolvimento de uma técnica para simular o fenômeno físico de refração da luz proveniente das fontes luminosas puntiformes da cena. A Síntese de Imagens Realísticas é uma das principais áreas de aplicação e pesquisa da Computação Gráfica. Uma imagem realística é uma imagem que incorpora os efeitos da luz que interage com objetos fisicamente reais. A dificuldade fundamental para a síntese de imagens realísticas se encontra na complexidade do mundo real, que apresenta uma infinidade de graduações de cores, texturas, reflexões, sombras, etc. Para a criação destas imagens realísticas, percorre-se um grande número de estágios, englobando métodos de modelagem, definição da posição de visualização, remoção de elementos ocultos, efeitos de reflexão e refração, e assim por diante. O trabalho está organizado da seguinte forma. Inicialmente, faz-se um estudo aprofundado da Óptica, área da Física que estuda o comportamento da luz no mundo real. A seguir, são apresentados algoritmos que simulam este comportamento da luz, enfatizando-se o algoritmo de rastreamento de raios (ray-tracing). Discute-se a seguir os principais problemas relacionados a simulação de objetos transparentes na Computação Gráfica. Então, uma proposta para a simulação em ambientes esféricos da refração da luz que provem diretamente das fontes luminosas puntiformes da cena a apresentada. Esta proposta baseia-se na utilização do algoritmo de rastreamento bidirecional de raios. O algoritmo apresentado é composto de duas fases. Na primeira etapa, são geradas as fontes secundarias de luz. Na segunda etapa, utiliza-se a informação obtida na primeira etapa para simular a refração da luz que provem diretamente das fontes luminosas da cena. As fontes secundarias de luz tem sua origem na utilização dos objetos esféricos transparentes como lentes esféricas convergentes. A fonte luminosa secundaria localiza-se no ponto imagem da lente, considerando-se como ponto objeto a fonte luminosa puntiforme original. A localização da fonte luminosa secundaria é obtida através da equação dos pontos conjugados. Também armazena-se uma informação relacionada com a área de atuação da fonte luminosa secundaria (angulo de espalhamento). 0 angulo de espalhamento é essencial para que, na segunda fase do algoritmo, seja possível identificar se o ponto atual é iluminado ou não pela fonte secundaria em questão. Finalizando, são geradas imagens tanto no protótipo implementado quanto em um algoritmo de ray-tracing convencional. Os resultados obtidos são comparados em nível de realismo e tempo de execução. / This work presents a proposal of using the bidirectional ray tracing method in spherical modeling environments containing punctual light sources. This project was developed within the field of Computer Graphics, more precisely in the area of synthesis of realistic images. The main contribution of this work is the definition and the development of a method that simulates the light refraction proceeding from localized light sources in the scene. The synthesis of realistic images is one of the main areas of application and research in Computer Graphics. A realistic image is an image that contains light effects interacting with physically real objects. The major difficulty for rendering realistic images is the complexity of the real world, with several color graduations, textures, reflections, shadows, etc. For this rendering, many steps like modeling methods, definition of visualization position, hidden-surface algorithms, reflection and refraction effects, and so forth, are developed. At first, this work presents a study about Optics, the area of Physics that studies the behaviour of light in the real world. In sequence, algorithms that simulate that behaviour are presented, with special attention to ray tracing method. After that, the principal problems of the simulation of transparency in Computer Graphics are discussed. So, a proposal for simulation of the light refraction proceeding from light source in spherical modeling environment, is presented. This proposal is based on use of the bidirectional ray tracing algorithm. This algorithm is divided in two main stages. In the first stage, the secondary light sources are generated. In the second stage, the information about the secondary light sources is utilized to simulate the light refraction directly proceeding from light sources of the scene. The secondary light sources are originated from transparent spherical objects like convergent spherical lenses. The position of the secondary light source is the image point of the lens, corresponding to punctual light source like object point. The position of the secondary light source is calculated by the equation of the conjugated points. Also the information about the scattering angle of the secondary light source is stored. The scattering angle is essential, in first stage of algorithm, to establish if the current point is illuminated by any secondary light source. Finally, images are generated both in the implemented prototype as in conventional ray tracing. The final results of this work are evaluated based on realism and runtime.
339

Análise de um modelador de objetos que utiliza superfícies de junção para unir superfícies paramétricas compostas beta-spline / Analysis of an object modeler that uses blending surfaces to connect parametric composed beta spline surfaces

Copstein, Bernardo January 1992 (has links)
Um tópico importante em modelagem geométrica é a definição de objetos que não contenham cantos ou farpas. A geração de superfícies de junção (superfícies que conectam suavemente superfícies distintas) e uma das técnicas utilizadas para solucionar esse tipo de problema. Pode-se abordar a geração de superfícies de junção sob vários aspectos. Neste trabalho, serão estudadas superfícies de junção que conectam suavemente duas outras superfícies distintas (superfícies-base). Sob este enfoque, a geração das superfícies de junção será dividida em três etapas a saber: modelagem das superfícies-base, determinação das curvas de ancoragem e geração das junções propriamente ditas. Curvas de ancoragem são curvas que determinam a forma do contato entre a junção e cada uma das superfícies base. As superfícies-base utilizadas são superfícies compostas modeladas utilizando-se "beta-splines" uniformes. Discussões sobre a melhor maneira de se modelar as mesmas foram consideradas fora do contexto deste trabalho. A determinação das curvas de ancoragem é amplamente discutida. Optou-se por utilizar um piano de corte contra cada uma das superfícies-base para a determinação das curvas de ancoragem. O cálculo da intersecção entre o plano de corte e cada um dos "patches" das superfícies-base e feito utilizando-se um método numérico hibrido baseado em um algoritmo de movimentação associado a um algoritmo de reticulado. A geração das superfícies de junção e feita utilizando-se a técnica de Hermite. Para tanto é preciso que se calculem os vetores de controle necessários a técnica de Hermite de forma que se garanta a continuidade desejada ao longo da curva de contato entre a superfície base e a junção. No caso em questão e garantida continuidade geométrica de primeira ordem (G1). Por fim, apresenta-se protótipo do modelador utilizado para validar o método proposto. São indicadosos resultados obtidos bem como uma analise comparativa com outras soluções semelhantes encontradas na literatura a disposição. Os testes com o prot6tipo foram feitos em um microcomputador com arquitetura compatível com IBM-PC 386 com 640 KBytes de RAM, 20 Mhz, adaptador gráfico VGA e co-processador matemático 80387. O protótipo pode, entretanto, ser utilizado em qualquer microcomputador compatível com IBM-PC que disponha de no mínimo 640 Kbytes de memória RAM. O uso de co-processador matemático e adaptador gráfico EGA ou de major capacidade é aconselhado. / An important topic in geometric modeling is the definition of objects without sharp, corners or edges. A blending surface is one that smoothly connects two given surfaces.It has been a very useful way to define objects without sharp, corners or edges. One can approach the generation of blending surfaces from different points of view. This work deals with blending surfaces that smoothly connect two other surfaces called base-surfaces. According to this point of view the generation of blending surfaces will be divided in 3 steps: base-surfaces modeling, rail curves determination and generation of the blending surfaces. A rail curve is one along which blending and base surfaces meet. The base-surfaces used are composed-surfaces modeled by uniform beta-splines. The problem of modeling these surfaces is beyond the scope of this work. The determination of rail-curves is widely discussed. In order to determine each one of the rail curves, an intersection plane is choosen. The computation of the intersection between the intersection plane and each one of the patches of the base-surfaces uses an hibrid numeric algoritm based on a marching method associated with an lattice evaluation algorithm. The generation of blending surfaces is done using the Hermite technique. To make this possible one has to compute the control vectors needed to generate an Hermite surface and, at the same time, guarantee the desirable continuity along the rail-curves. In this work geometric continuty (G 1) is guaranteed. Finally it is presented the prototype of the modeler used to validate the proposed method. The results obtained are presented as well as a comparative analysis with other solutions found in the literature.
340

Simulação de objetos deformáveis baseada na análise dinâmica / Deformable object simulation based on dynamic analysis

Nedel, Luciana Porcher January 1993 (has links)
O crescente número de sistemas de animação que utilizam a cinemática para gerar movimento de objetos vem levando os pesquisadores a buscar outras alternativas para produzir resultados mais realistas. Com base nesta premissa, vários autores começaram a estudar a geração de movimento de objetos sintéticos através da aplicação da dinâmica. Assim surgiram os modelos baseados em leis físicas. Num primeiro momento foram abordados apenas objetos rígidos, passando-se mais tarde a considerar objetos articulados e, por fim, aqueles com características elásticas, também denominados de objetos flexíveis ou deformáveis. O objetivo principal do trabalho é a definição de um modelo para simulação de objetos deformáveis no espaço euclidiano. São abordados tanto o modelo geométrico utilizado como o modelo físico, sendo ressaltadas as forças aplicadas sobre o objeto e as restrições que podem ser impostas pelo mundo virtual no qual o mesmo está inserido. Dentre as forças descritas, pode-se destacar: força gravitacional, elasticidade, força de curvatura e torção, colisão e atrito. A fundamentação do trabalho desenvolvido é apresentada na forma de uma introdução aos sistemas de animação, enfatizando os sistemas baseados em leis físicas e de uma revisão bibliográfica dos métodos de deformação existentes. No que diz respeito à colisão de objetos elásticos, são descritos tanto os métodos estudados para a solução das mesmas, como as técnicas para detecção do choque. A simulação do movimento é descrita sob dois aspectos: o algoritmo utilizado para a geração do movimento e a integração numérica das equações diferenciais no tempo. É abordado ainda, em detalhe, o protótipo desenvolvido com o propósito de validar o modelo proposto, sendo descrita a linguagem criada a fim de permitir a especificação da animação e parâmetros diversos do modelo. Por fim, são apresentados e avaliados os resultados obtidos através do desenvolvimento do modelo proposto por intermédio do protótipo FLEX3D. É dedicada ainda especial atenção às perspectivas futuras deste trabalho. / The growing number of animation systems that use kinematics to generate the motion of objects have led to other alternatives to produce more realistic results. Some authors began to study the animation of synthetic objects through the application of the dynamic concepts, creating the modern physically based models. At first, only rigid objects were treated; later on articulated objects were considered. At last, those with elastic characteristics (called flexible or deformable objects) were taken into consideration. The main goal of this work is to define a simulation model for deformable objects in the euclidean space. Both the geometric and the physical models are presented, considering the forces applied to the object and the constraints defined by the virtual world. Described forces include gravity, elasticity, dumping force, collision and attrition. This work presents an introduction to animation systems focusing the physically based systems. After this, a bibliographic review of the existent deformation methods is made. Methods for detecting and solving the collision between two elastic objects are described. Two aspects of the motion simulation are described: the algorithm used to generate the motion and the numeric integration of the differential equations in time. A prototype named FLEX3D is presented to validate the proposed model. The language used for specifying the animation is described and results obtained through the use of FLEX3D are also presented. Special attention is given to the possible future works.

Page generated in 0.0571 seconds