• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4502
  • 203
  • 183
  • 183
  • 179
  • 125
  • 120
  • 63
  • 63
  • 55
  • 54
  • 53
  • 15
  • 6
  • 3
  • Tagged with
  • 4792
  • 2010
  • 1378
  • 953
  • 815
  • 792
  • 733
  • 725
  • 564
  • 538
  • 505
  • 491
  • 471
  • 462
  • 455
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Paralelização do detector de Bordas Canny para a Biblioteca ITK utilizando Cuda

Lourenço, Luis Henrique Alves 16 January 2012 (has links)
Resumo: Aplicações de Processamento de Imagens podem exigir poder de processamento tão alto que a computação tradicional não é capaz de fornecer. Uma alternativa eficiente é a computação de Propósito Geral em Placas Gráficas (GPGPU). CUDA ´e a API da NVidia que implementa o modelo de programação em placas gráficas. Muitas aplicaces que foram reimplementadas em CUDA estão alcançando ganhos significativos de desempenho. Este trabalho tem como objetivo aproveitar o processamento paralelo das placas gráficas através do modelo de computação CUDA para proporcionar melhor desempenho ao detector de bordas Canny na biblioteca de processamento de imagens ITK. Para isso, é apresentado um estudo sobre as arquiteturas CUDA e ITK, conceitos pertinentes e as abordagens utilizadas para implementar filtros ITK para executar em placas gráficas. Além do detector de bordas Canny, foram desenvolvidos o cálculo de gradiente Sobel e a Suavização Gaussiana, assim como uma classe de configuração CUDA para o ITK. O desempenho desses filtros foram avaliados mostrando ganhos em qualquer arquitetura de placa gráfica da NVidia. Além disso, técnicas eficientes de programação foram propostas e avaliadas nas arquiteturas de placas da NVidia G80, GT200 e Fermi. Palavras-chave: Computação em Placas Gráficas; GPGPU; CUDA; Processamento de Imagens; ITK; Canny; Suavização Gaussiana; Convolução; Sobel.
442

Técnicas de tolerância a falhas aplicadas a redes intra-chip

Fochi, Vinicius Morais January 2015 (has links)
Made available in DSpace on 2015-06-17T02:04:12Z (GMT). No. of bitstreams: 1 000470587-Texto+Completo-0.pdf: 6163395 bytes, checksum: b88f0389d39c7cc7f197b32966e6fe29 (MD5) Previous issue date: 2015 / The continuous development of the transistor technology has enabled hundreds of processors to work interconnected by a NoC (network-on-chip). Nanotechnology has enabled the development of complex systems, however, fault vulnerability also increased. The literature presents partial solutions for fault tolerance issues, targeting parts of the system. An important gap in the literature is an integrated method from the router-level fault detection to the correct execution of applications in the MPSoC. The main goal of this dissertation is to present a fault-tolerant method from the physical layer to the transport layer. The MPSoC is modeled at the RTL level using VHDL. This work proposes fault tolerance techniques applied to intra-chip networks. Related work on fault tolerance at a systemic level, router level, link level and routing algorithms are studied. This work presents the research and development of two techniques: (i) protocols to enable the correct communication between task with partial degradation of the link enabling the router to operate even with faulted physical channels; (ii) test recovery method and of the router. This Dissertation considers permanent and transient faults. The HeMPS platform is the reference platform to evaluate the proposed techniques, together with a fault injection campaign where up to five random failures were injected simultaneously at each simulated scenario. Two applications were used to evaluate the proposed techniques, MPEG encoder and a synthetic application, resulting in 2,000 simulated scenarios. The results demonstrated the effectiveness of the proposal, with most scenarios running correctly with routers operating in degraded mode, with an impact on the execution time below 1%, with a router area overhead around 30%. / O contínuo desenvolvimento na tecnologia de transistores possibilitou que centenas de processadores trabalhassem interconectados por NoCs (network-on-chip). A nanotecnologia permitiu o desenvolvimento de complexos sistemas, porém a vulnerabilidade a falhas também aumentou. A literatura apresenta soluções parciais para o tema de tolerância a falhas, tendo como alvo partes do sistema. Uma importante lacuna na literatura é um método integrado para detecção de falhas do nível do roteador até a correta execução das aplicações em MPSoC reais. O objetivo principal desta dissertação é apresentar um método com tolerância a falhas da camada física até a camada de transporte. O MPSoC é modelado em nível de RTL, usando VHDL.O presente trabalho propõe técnicas de tolerância a falhas aplicadas a redes intrachip. São estudadas técnicas de tolerância a falhas em nível sistêmico, nível do roteador, nível de enlace e algoritmos de roteamento tolerante a falhas. Este trabalho apresenta a pesquisa e o desenvolvimento de duas técnicas: (i) protocolos para permitir a correta transmissão dos dados com degradação parcial do enlace, de forma a permitir que o roteador opere mesmo com canais físicos falhos; (ii) método de teste e recuperação do roteador. O modelo de falhas utilizado nesta Dissertação é de falhas permanentes e transientes. Para avaliar as técnicas propostas, foi utilizada a plataforma HeMPS, juntamente com uma campanha de injeção de falhas onde até cinco falhas aleatórias foram injetadas nos canais de comunicação entre os roteadores simultaneamente em cada cenário. Foram utilizadas duas aplicações para avaliar as técnicas: codificador MPEG e uma aplicação sintética, com um total de 2,000 cenários simulados. Os resultados demonstram a efetividade da proposta, com a maioria dos cenários executando corretamente com roteadores operando em modo degradado, com um impacto no tempo de execução abaixo de 1% e um aumente do área de 30% no roteador.
443

Particionamento e mapeamento de aplicações em MPSoCs baseados em NoCs 3D

Stefani, Marco Pokorski January 2015 (has links)
Made available in DSpace on 2015-06-30T02:06:09Z (GMT). No. of bitstreams: 1 000471296-Texto+Completo-0.pdf: 2108698 bytes, checksum: 3b45f65685531967cfcb1b4458fc269a (MD5) Previous issue date: 2015 / Multiprocessor System-on-Chip (MPSoC) based on Network-on-Chip (NoC) incorporates a lot of Processing Elements (PEs) in order to perform applications with high degree of parallelism/concurrence. These applications consist of several communicating tasks that are dynamically mapped into the PEs of the target architecture. When the number of application tasks grows, the complexity of mapping also grows, possibly reducing the effectiveness and/or efficiency of the solution. An approach for the mapping optimization is the introduction of a previous step called partitioning, which allows to organize the tasks interaction through an efficient grouping, reducing the number of mapping alternatives. This paper proposes the Partition Reduce (PR) algorithm, which is a task partitioning approach inspired on MapReduce algorithm, where tasks are partitioned by a deterministic iterative clustering. The PR was analyzed according to its effectiveness and efficiency to minimize the energy consumption caused by the communication in the target architecture and to balance the processing load on the PEs. Experimental results, containing a wide range of complex tasks, show that PR is more effective in generating partitions with low power consumption and efficient load balancing at any level of tasks complexity, when compared with the simulated annealing (SA) algorithm. Moreover, the results show that the algorithm is efficient only for medium or high complexity applications. / Sistema multiprocessado intrachip, em inglês Multiprocessor System-on-Chip (MPSoC), com comunicação baseada em rede intrachip, em inglês Network-on-Chip (NoC), integra grande quantidade de Elementos de Processamento (PEs) com o objetivo de executar aplicações com alto grau de paralelismo/concorrência. Estas aplicações são compostas por diversas tarefas comunicantes, que são mapeadas dinamicamente nos PEs da arquitetura alvo. Quando cresce o número de tarefas da aplicação, a complexidade do mapeamento também cresce, podendo reduzir a eficácia e/ou a eficiência da solução encontrada. Uma abordagem para otimizar o mapeamento é a introdução de uma etapa anterior denominada particionamento, que permite organizar a interação das tarefas através de um agrupamento eficiente, reduzindo o número de alternativas do mapeamento. Esta dissertação propõe o algoritmo Partition Reduce (PR), que é uma abordagem de particionamento de tarefas baseada no algoritmo MapReduce, onde as tarefas são particionadas através de um agrupamento iterativo determinístico. O PR foi analisado quanto a sua eficácia e eficiência para minimizar o consumo de energia causada pela comunicação na arquitetura alvo e para balancear a carga de processamento nos PEs. Resultados experimentais, contendo um conjunto variado de complexidade de tarefas, demonstram que o PR é mais eficiente na geração de partições com baixo consumo de energia e com um balanceamento de carga eficiente para qualquer nível de complexidade de tarefas, quando comparado com o Simulated Annealing (SA). Por outro lado, os resultados mostram que o algoritmo é eficaz apenas para aplicações de média e alta complexidade.
444

Desenvolvimento de algoritmo para modelagem e simulação de sistemas por grafos de ligação /

Negrão, Celso Garcia. January 2012 (has links)
Orientador: Nazem Nascimento / Banca: Mauro Hugo Matias / Banca: José Geraldo Trani Brandão / Banca: Viktor Pastoukhov / Banca: Luiz Heleno Moreira Duque / Resumo: Este trabalho propõe a utilização da técnica de modelagem para obtenção das equações do movimento de sistemas dinâmicos, apresentando uma contribuição para o desenvolvimento do algoritmo computacional e implementado através da técnica de grafos de ligação. O objetivo é entender o desempenho do algoritmo desenvolvido através dos grafos de ligações e, assim, avaliar e validar as propostas deste trabalho. O problema da busca para obter uma equação do modelo de sistemas dinâmicos com geração automática em plantas industriais tem levantado a necessidade de desenvolver um algoritmo para sistemas que forneça a equação do movimento do modelo dinâmico. A proposição desta Tese consiste na aplicação da técnica de grafos de ligação para a determinação das equações de estado a partir do algoritmo desenvolvido com um programa computacional para geração automática das equações do movimento na forma de equações de estado. Os algoritmos foram desenvolvidos em ambiente matemático simbólico. Alguns estudos de caso (aplicações) foram utilizados para validação do algoritmo, constituindo estudo de casos sistemáticos, sendo: -Sistema dinâmico viga-bola, sistema mecânico massa-mola-amortecedor e seu análogo o circuito RLC e sistema servo-válvula eletro-hidráulica. No primeiro caso, sistema dinâmico viga-bola (sistema não-linear), o sistema compreende de uma viga fixada ao eixo do motor e uma bola deslizando sobre a viga, onde foi obtida a modelagem via grafos de ligação, utilizando o algoritmo computacional e encontrado o modelo na forma de equação de estado. No segundo caso, sistema mecânico massa-mola-amortecedor e seu análogo circuito RLC, foi obtido o grafo... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This work proposes the use of the technique of modeling for getting the equations of the movement of dynamic linear and non-linear systems, presenting a contribution for the development of the computational algorithm and implemented through the technique of bond graphs. The objective is the understanding of the performance of the algorithm developed by the bond graphs and thus to evaluate and validate the proposals in this work. The problem of the search to obtain an equation of the model of dynamic systems with automatic generation in industrial plants has been lifting the necessity of developing an algorithm for systems which supply the equation of the movement of the dynamic model. The proposition of this Thesis consists in the application of the bond graphs technique for the determination of the equations of state from the algorithm developed with a computational program for automatic generation of the equations of the movement in the form of equations of state. The algorithms were developed in symbolic mathematical environment. Some case studies (applications) were used for validation of the developed algorithm. The first case is a non-linear system, while the second and third thing cases are linear, constituting systematic case study, being: Dynamic system beam-ball, mechanical system mass-spring-damper and its analogue the RLC circuit and electro-hydraulic servo valve system . In the first case, dynamic system beam-ball (non-linear systems), the system consists of a beam attached to the motor shaft and a ball sliding on the beam, where the modeling was obtained by bond graphs, using the computational algorithm and the model was found in the form of equation of state. In the second case, mechanical system mass-spring-damper and its analogue RLC circuit, the validation was carried out... (Complete abstract click eletronic access below) / Doutor
445

Métrica para definição de pontos estáveis utilizando-se da Análise de Robustez no posicionamento por ponto preciso /

Cavalheri, Emerson Pereira. January 2015 (has links)
Orientador: João Carlos Chaves / Coorientador: Marcelo Carvalho dos Santos / Banca: Edvaldo Simões da Fonseca Júnior / Banca: Daniele Barroco Marra Alves / Resumo: No monitoramento de deformações de grandes estruturas ou da superfície terrestre, o deslocamento dos pontos investigados geralmente são obtidos em função de pontos localizados fora do corpo de estudo e são considerados como estáveis (pontos de refer ência) nas análises. Se estes pontos, assumidos como referências, na realidade não forem estáveis, os parâmetros nais serão in uenciados diretamente por esta considera ção. Para estabelecer uma rede de referência pontos estáveis devem ser encontrados, ou seja, aqueles que menos se movimentam ao passar do tempo. A instabilidade, ou deslocamento, na posição de um ponto com relação ao tempo pode ser separados em dois tipos: continentais e locais. Os deslocamentos continentais tratam do movimento sofrido pela estação em função da sua velocidade continental, ou seja, devido ao movimento da placa em que se encontra. Já, os deslocamentos locais são obtidos em função de fenômenos físicos da geologia local, podendo ou não ter um padrão de variação. Os deslocamentos locais são os únicos de extremo interesse na de nição de pontos estáveis. Assim, este trabalho propõe uma estratégia para classi cação de pontos estáveis atrav és da obtenção destes deslocamentos sem a in uência dos deslocamentos continentais na posição da estação... / Abstract: Deformation monitoring of large structures or land surface, the displacement of the investigated points are usually obtained according to points located outside of the studied body and they are considered to be stable (reference points) in the analysis. If these constrained points, assumed as references, in reality are not stable the nal parameters will be directly in uenced by this consideration. To establish a reference network stable points must be found, i.e, those that least move over time. The instability or displacements in the point position with respect to time can be separated into two types: continental and local. The continental displacements treat the su ered motion by the station on the basis of the continental speed, that is, due to the plate movement that the point is locate. The local displacements are obtained as function of physical phenomena of the local geology, they may or may not have a pattern of variation. Local movements are the only of extreme interest in the de nition of stable points. Thus, this work proposes a strategy for classi cation of stable points by using these obtained displacements without the in uence of continental displacements in the station position. Based on coordinate time series obtained from the PPP (Precise Point Positioning) processing method with the GAPS (GPS Analysis and Positioning Software) software, comparing them to coordinates obtained from a velocity model, e.g., the VEMOS2009 (Velocity Model for South America and the Caribbean), is intended to de ne a metric for classi cation of stable points, where the Network Robustness Analysis is adopted as a statistical criterion for evaluation of the proposed mathematical model... / Mestre
446

Deteccão de complexos QRS em eletrocardiogramas baseada na decomposição em valores singulares em multirresolução /

Oliveira, Bruno Rodrigues de. January 2015 (has links)
Orientador: Jozué Vieira Filho / Banca: Marco Aparecido Queiroz Duarte / Banca: Roberto Kawakami Harrop Galvão / Resumo: O Eletrocardiograma (ECG) e um exame de extrema importância para avaliar a saúde do coração de um individuo. A analise de seu traçado possibilita diagnosticar uma serie de doenças e anomalias. Para isso, sistemas computacionais precisam segmentar os sinais de ECG, cujo primeiro passo e a detecção dos complexos QRS (ondas Q, R e S). Mui- tos métodos tem sido propostos para tal finalidade. Os primeiros utilizavam técnicas de filtragem e diferenciação, mas recentemente alguns pesquisadores tem concebido metodologias baseadas na analise de multirresolução da transformada Wavelet. Seguindo caminho semelhante, neste trabalho e proposta uma metodologia baseada na decomposição em valores singulares em multirresolução (MRSVD), para solução do problema de detecção dos complexos QRS de um sinal de ECG, que pode ser dividida em quatro etapas essenciais: pré-processamento, inspeção, decisão e correção. Em quase todas elas ha implementações inovadoras: na primeira utiliza-se, de forma inédita, a MRSVD; na segunda etapa exploram-se características fisiológicas do músculo cardíaco para certificar-se de que um determinado segmento compreende ou não uma onda R autentica; na ultima, são corrigidas as detecções baseadas nas amplitudes das ondas R. A avaliação da qualidade de detecção, para os experimentos realizados, mostra que o algoritmo proposto atingiu taxa de previsibilidade de 99, 20%, taxa de sensibilidade de 99, 70% e erro de apenas 1,10%, contra 97, 10%, 99, 00% e 3, 70%, respectivamente, obtidas por outro método / Abstract: The electrocardiogram (ECG) is a test of utmost importance to evaluate the heart health of a person. The analysis of its layout enables diagnose a number of diseases and abnor- malities. For computer systems that need to segment the ECG signal, the first step the detection of QRS complexes. The earliest methods used filtering techniques and differen- tiation. Recently some researchers have designed methodologies based the multiresolution analysis the wavelet transform. Following similar path, this work proposes a methodology based on singular value decomposition in multiresolution (MRSVD), to solve the prob- lem of detection of QRS complexes of an ECG signal, which can be divided in four key stages: preprocessing, inspection, decision and correction. In of all, there are innovative proposals: in the first, it is used, in an unprecedented manner, the MRSVD; the second stage explores the physiological characteristics of the heart muscle, to make sure that a particular segment comprises or not a genuine R wave and, the last, corrects detections based on the amplitudes of the R wave. The evaluation of quality of detection for the experiments shows that the proposed algorithm has reached a predictive and sensitivity rates of of 99.20% and 99.70%, respectively, and error of only 1.10%, in comparation to another method which obtained 97, 10%, 99, 00% and 3, 70%, respectively / Mestre
447

Solução rápida das ambigüidades GPS para aplicações no posicionamento relativo de linhas de base curtas /

Machado, Wagner Carrupt. January 2002 (has links)
Orientador: João Francisco Galera Monico / Resumo: O posicionamento com GPS no nível de precisão centimétrico é baseado na medida da fase de batimento da onda portadora. No entanto, esta observável é ambígua de um número inteiro de ciclos entre as antenas do satélite e do receptor no instante da primeira observação, denominado de ambigüidade GPS. Tais ambigüidades são introduzidas como parâmetros nas equações de observação e, devido à sua natureza inteira, não existe um método padrão para solucioná-las diretamente. Uma estratégia comumente utilizada é aplicar o método dos mínimos quadrados seqüencial condicionado juntamente com técnicas de busca. A resolução das ambigüidades pode ser dividida em duas etapas: a estimação e a validação. A estimação diz respeito ao cálculo do valor da ambigüidade. A validação é utilizada para inferir se a solução pode ser aceita ou não. Desde o final da década de 1980, até os dias de hoje, a solução da ambigüidade vem sendo um dos principais tópicos de pesquisa em posicionamento geodésico e vários métodos foram propostos. Atenção especial vem sendo dada à solução rápida das ambigüidades. Essa dissertação apresenta uma nova contribuição no desenvolvimento do software GPSeq, o qual é um software de processamento de dados GPS desenvolvido em meio acadêmico. Inicialmente, o software comportava apenas o processamento de dados coletados através de posicionamento relativo estático de linhas de base curtas. Durante o desenvolvimento de um projeto de iniciação científica (IC) financiado pela Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP), o método LAMBDA... (Resumo completo clicar acesso eletrônico abaixo) / Abstract: Centimeter level GPS positioning is based on the very precise carrier beat phase measurements. However, this observable is ambiguous by a number of whole cycles between the satellite and receiver antenna at the first epoch of data collecting, which is called the ambiguity. GPS ambiguities are introduced as parameters to be estimated in the observation equations. However, since they are integer numbers there is no standard techniques for solve them. One of the ways is to apply sequential conditional least-squares estimation together with integer search techniques. The ambiguity resolution can be divided in two steps: estimation and validation. The estimation is concerned with the computation of the ambiguities values. The validation step is used to infer if the estimated value can be accepted or not. From the last decade until nowadays ambiguity resolution has been one of the most important research topic in geodetic positioning and a several methods have been proposed. Special attention has been made about the fast ambiguity resolution. This project presents a new contribution to the GPSeq software implementation, which is a GPS data processing software developed in academic environment. Initially, the software was able to process data from static relative positioning for short baselines. During the development of a Scientific Initiation project supported by FAPESP (Fundação de Amparo a Pesquisa do Estado de São Paulo), the LAMBDA method for rapid ambiguity resolution was implemented. In this contribution, local Detection Identification Adaptation (DIA) for float quality control and an algorithm for processing both, kinematic and static relative data, was implemented. An initial study about fixed ambiguity validation was also carried out. Some experiments are presented, whose results shown that the GPSeq solution is compatible on the centimeter level with commercial software... (Complete abstract click electronic address below) / Mestre
448

Recuperação de perfis atmosféricos a partir de ocultação GPS : fundamentos, implementação e análise de resultados /

Holzschuh, Marcelo Leandro. January 2007 (has links)
Resumo: A ocultação, um fenômeno pelo qual um corpo celeste deixa de ser visto em razão da sobreposição de um outro, começou a ser usada para estudar a atmosfera de outros planetas há vários anos. Com o advento dos satélites artificiais GPS (Global Positioning System), em conjunto com os satélites LEO (Low Earth Orbiting), surge a Rádio Ocultação GPS (ROGPS), abrindo-se novas perspectivas para as pesquisas sobre o clima e previsão de tempo. Na RO GPS, os sinais que são enviados pelo satélite GPS e recebidos no satélite LEO sofrem os efeitos da troposfera e da ionosfera ao atravessarem a atmosfera terrestre, afetando a fase e a amplitude das ondas dos sinais envolvidos. A propagação do sinal sofre refração formando uma linha curva entre o satélite transmissor e o receptor, o que permite calcular diferentes índices de refratividade, os quais carregam informações da composição da atmosfera terrestre. A partir de perfis desses índices de refratividade é possível extrair perfis de temperatura, umidade e pressão atmosférica na troposfera, além da distribuição na densidade de elétrons na ionosfera terrestre. Vários trabalhos foram realizados para verificar a qualidade dos perfis atmosféricos obtidos com o emprego do satélite CHAMP (Challenging Minisatellite Payload of Geophysical Research and Application), um satélite LEO, em diversas regiões do globo. Nesse trabalho, objetiva-se investigar e implementar a técnica de ocultação GPS, bem como avaliar a qualidade de perfis de temperatura obtidos com o satélite CHAMP sobre a América do Sul, comparando-os com perfis de radiossondas e perfis provenientes da condição inicial do modelo de Previsão Numérica de Tempo (PNT). A implementação da recuperação de um perfil da atmosfera foi realizada utilizando o código C/A para o cálculo do ângulo de curvatura e o parâmetro de impacto, cujos valores aproximados foram 0,043° e 6381 km, respectivamente. / Abstract: The occultation, phenomenon in which a celestial body in not seen because of the superposition of another one, started being used several years ago to study the atmosphere of other planets. With the advent of GPS (Global Positioning System) satellites, together with the LEO (Low Earth Orbit) satellites, the GPS Radio Occultation (GPS-RO) arises, in order to obtain new perspectives in studies related to climate and weather forecast. In GPS-RO, the signals sent by the GPS satellite and received by the LEO satellite are disturbed by the ionosphere and troposphere while cross the terrestrial atmosphere, this affects the phase and the amplitude from the involved signals. The signals propagation is affected by refraction, this generates a bending angle between the transmitter and receiver satellites, allowing computing different refractivity index, which carry information about the terrestrial atmosphere composition. Using these profiles of refractivity index is possible to extract profiles of temperature, humidity, atmospheric pressure in the troposphere, and to obtain the electronic density distribution in terrestrial ionosphere. Several works were realized to verify the quality of atmospheric profiles obtained using the CHAMP (Challenging Minisatellite Payload of Geophysical Research and Application) satellite, LEO satellite, in several regions of the globe. In this research the goal is to investigate and implement the GPS occultation technique, and additionally to evaluate the quality of the temperature profiles obtained by CHAMP satellite over the South of America, comparing them with the RSO (Radiosonde) profiles and with the profiles obtained by the initial condition of Numeric Weather Prediction (NWP) model. / Orientador: João Francisco Galera Monico / Coorientador: Luiz Fernando Sapucci / Banca: Hisao Takahashi / Banca: José Tadeu Garcia Tommaselli / Mestre
449

Geração de animações faciais personalizadas em avatares

Queiroz, Rossana Baptista January 2010 (has links)
Made available in DSpace on 2013-08-07T18:43:38Z (GMT). No. of bitstreams: 1 000433864-Texto+Completo-0.pdf: 18434268 bytes, checksum: 61c6a4bdb552888fb0eab7f573b93c20 (MD5) Previous issue date: 2010 / In this work, we present a model to generate personalized facial animations for avatars. The model includes two approaches of parametric control of the avatar’s face: based on high-level face actions scripts or using Performance-driven Animation (PDA) technique. The script approach allows the generation of animations with facial expressions, lip synchronization and eye behaviors interactively by high-level description of these face actions. The Performance-driven approach allows to reflect the user face expressions in his/her avatar, considering as input a small set of feature points provided by Computer Vision tracking algorithms. The model is based on MPEG-4 Facial Animation standard of parameterization, structured using a hierarchy of the animation parameters for the PDA approach. It allows us to provide animation to face regions where lack Computer Vision data. To deform the face, we use Radial Basis Functions and Cosine Functions. This scheme is computationally cheap and allow to animate the avatars in real-time. We have developed an extensible facial animation framework capable of easily animating MPEG-4 parameterized faces for interactive applications. We also developed some “case studies” interactive applications and performed a preliminary evaluation with subjects in order to evaluate qualitatively our control approaches. Results show that the proposed model can generate variated and visually satisfactory animations. / Neste trabalho, é apresentado um modelo para a geração de animações faciais personalizadas em avatares. O modelo inclui duas abordagens de controle paramétrico da face do avatar: baseado em scripts de ações faciais em alto-nível ou usando a técnica de Animação Dirigida por Performance(PDA). A abordagem de controle por script permite a geração de animações com expressões faciais, fala sincronizada e comportamento dos olhos interativamente pela descrição em alto-nível dessas ações faciais. A abordagem de controle por Animação Dirigida por Performance permite refletir as expressões faciais do usuário em seu avatar, considerando como entrada um pequeno conjunto de pontos característicos providos por algoritmos de Visão Computacional. O modelo é baseado no padrão MPEG-4 de Animação Facial, estruturado usando uma hierarquia dos parâmetros de animação, proposta para a abordagem de PDA. Essa estratégia permite a geração de animações nas regiões da face onde não houver dados supridos por Visão Computacional. Para deformar a face, usa-se Funções de Base Radial e Funções de Cosseno. Essa abordagem é computacionalmente barata e permite a animação dos avatares em tempo-real. Foi desenvolvido um framework de animação facial extensível capaz de animar facilmente faces parametrizadas de acordo com o padrão MPEG-4 em aplicações interativas. Também foram desenvolvidas algumas aplicações interativas como “estudo de caso” das potencialidades do modelo e realizada uma avaliação preliminar com usuários, de maneira a avaliar qualitativamente as abordagens de controle. Os resultados mostram que o modelo proposto pode gerar animações variadas e com resultados visuais satisfatórios.
450

Projeto de matrizes fechadas de forjamento à quente, para peças axissimétricas com rebarba, auxiliado por computador

Viecelli, Alexandre January 1995 (has links)
O presente trabalho trata do estudo das características do projeto de matrizes fechadas para o forjamento a quente de peças axissimétricas com rebarba, com a posterior concepção de um software que auxilia a projetar matrizes de forjamento através de uma seqüência de passos, com a interação do usuário, quando requerido. O trabalho apresenta, na sua parte inicial, uma revisão da metodologia de projeto desse tipo de peça, dando suporte para a elaboração de um programa em linguagem C, que reúne características de baixo custo, alta flexibilidade, facilidade de operação e possibilidade de melhoramentos posteriores. O projeto da matriz de forjamento inicia pelo desenho da peça usinada no computador e segue uma seqüência de passos, como: inclusão de alma central, do sobremetal de usinagem, dos ângulos de saída da peça, dos raios de arredondamento e da zona de rebarba, acompanhados de cálculos importantes como a carga e energia de forjamento, pesos, áreas e volumes. Posteriormente, projeta-se a matriz de moldagem da pré-forma. Todos os dados necessários para o projetista são impressos na forma de relatório para a posterior fabricação das matrizes. / This work presents the description of the design of axisymetric closed dies for hot forging with flash, as well as the conception of a software that aids the design o f dies by means of a sequence of steps, with the interaction of the user, when required. Initially, there is a review of the design methodology about this type of part, which served as base for the software conception in C language. This software was developed to have low cost, great flexibility, userfiiendability and possibility offurther improvements. The design o f forging dies begins with the shape description o f the machined part in the computer and follows this sequence to shape the finishing cavity: add central web, machining allowance, draft angles, comer and fillet radii and flash land. Some important calculations are made, such as the forging load and energy, weights, areas and volumes. Based upon the profile ofthe finishing cavity, the software designs the mould impression (prefonn cavity). All data are printed to pennit die manufacturing.

Page generated in 0.0587 seconds