• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 698
  • 169
  • 90
  • 71
  • 64
  • 43
  • 35
  • 24
  • 22
  • 21
  • 18
  • 10
  • 6
  • 6
  • 5
  • Tagged with
  • 1512
  • 144
  • 131
  • 128
  • 124
  • 114
  • 113
  • 96
  • 92
  • 89
  • 82
  • 78
  • 75
  • 73
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
471

A new 3D shape descriptor based on depth complexity and thickness information / Um novo descritor de formas 3D baseado em informações de depth complexity e thickness

Schmitt, Wagner January 2015 (has links)
Modelos geométricos desempenham um papel fundamental em divérsas áreas, desde a indústria do entretenimento até aplicações científicas. Para reduzir o elevado custo de criação de um modelo 3D, a reutilização de modelos existentes é a solução ideal. Recuperação de modelos 3D utilizam técnicas baseadas em conteúdo (do inglês CBR) que auxiliam a busca de modelos desejados em repositórios massivos, muitos disponíveis publicamente na Internet. Pontos principais para técnicas CBR eficientes e eficazes são descritores de forma que capturam com precisão as características de uma forma 3D e são capazes de discriminar entre diferentes formas. Nós apresentamos um descritor com base na distribuição de duas características globais, extraídas de uma forma 3D, depth complexity e thickness, que, respectivamente, capturam aspectos da topologia e da geometria das formas 3D. O descritor final, chamado DCT (depth complexity and thickness histogram), é um histograma 2D invariante a translações, rotações e escalas das formas geométricas. Nós eficientemente implementamos o DCT na GPU, permitindo sua utilização em consultas em tempo real em grandes bases de dados de modelos 3D. Nós validamos o DCT com as Princeton e Toyohashi Forma Benchmarks, contendo 1815 e 10000 modelos respectivamente. Os resultados mostram que DCT pode discriminar classes significativas desses benchmarks, é rápido e robusto contra transformações de forma e diferentes níveis de subdivisão e suavidade dos modelos. / Geometric models play a vital role in several fields, from the entertainment industry to scientific applications. To reduce the high cost of model creation, reusing existing models is the solution of choice. Model reuse is supported by content-based shape retrieval (CBR) techniques that help finding the desired models in massive repositories, many publicly available on the Internet. Key to efficient and effective CBR techniques are shape descriptors that accurately capture the characteristics of a shape and are able to discriminate between different shapes. We present a descriptor based on the distribution of two global features measured on a 3D shape, depth complexity and thickness, which respectively capture aspects of the geometry and topology of 3D shapes. The final descriptor, called DCT (depth complexity and thickness histogram), is a 2D histogram that is invariant to the translation, rotation and scale of geometric shapes. We efficiently implement the DCT on the GPU, allowing its use in real-time queries of large model databases. We validate the DCT with the Princeton and Toyohashi Shape Benchmarks, containing 1815 and 10000 models respectively. Results show that DCT can discriminate meaningful classes of these benchmarks, and is fast to compute and robust against shape transformations and different levels of subdivision and smoothness.
472

El Teorema de De Rham-Saito / El Teorema de De Rham-Saito

Apaza Nuñez, Danny Joel 25 September 2017 (has links)
The theorem of De Rham-Saito is a generalization of a lemma due to De Rham [3], which was announced and used in [7] by Kyoji Saito, as noproof of this theorem was available, Le Dung Trang encouraged to Saito to publish the proof that can be seen in [8], which indirectly encourages us to detail the proof in this article for the many applications it has,we highlight the Godbillon-Vey algorithm [4]; in the proof of Theorem classical Frobenius given in [2]; in [6] we see some interesting applications, in the proof of Frobenius theorem with singularities [5]. In [1] we givefull details of the proof given by Moussu and Rolin. / El teorema de De Rham-Saito es una generalización de un lema debido a De Rham [3], el cual fue enunciado y usado en [11] por Kyoji Saito, al no haber prueba de este teorema Le Dung Trang anima a Saito a publicar la prueba que puede ser vista en [12], lo cual indirectamente nos motiva a detallarla prueba en este articulo por las muchas aplicaciones que tiene, destacamos el algoritmo de Godbillon-Vey [5]; en la prueba del Teorema de Frobenius clásico dada en [2]; en [8] vemos unas aplicaciones interesantes; en la prueba del Teorema de Frobenius con singularidades [7]; en [1] se detalla la prueba realizada por Moussu y Rolin [10].
473

Obstacle detection using stereo vision for unmanned ground vehicles

Olsson, Martin January 2009 (has links)
In recent years, the market for automatized surveillance and use of unmanned ground vehicles (UGVs) has increased considerably. In order for unmanned vehicles to operate autonomously, high level algorithms of artificial intelligence need to be developed and accompanied by some way to make the robots perceive and interpret the environment. The purpose of this work is to investigate methods for real-time obstacle detection using stereo vision and implement these on an existing UGV platform. To reach real-time processing speeds, the algorithms presented in this work are designed for parallel processing architectures and implemented using programmable graphics hardware. The reader will be introduced to the basics of stereo vision and given an overview of the most common real-time stereo algorithms in literature along with possible applications. A novel wide-baseline real-time depth estimation algorithm is presented. The depth estimation is used together with a simple obstacle detection algorithm, producing an occupancy map of the environment allowing for evasion of obstacles and path planning. In addition, a complete system design for autonomous navigation in multi-UGV systems is proposed.
474

Correlação de fluorescência superficial e profundidade de necrose em terapia fotodinâmica: possibilidade de dosimetria em tempo real / Correlation of surface fluorescence and depth of necrosis in photodynamic therapy: possibility for real-time dosimetry

José Dirceu Vollet Filho 11 November 2011 (has links)
O tratamento do câncer e de lesões pré-malignas é uma importante aplicação da terapia fotodinâmica. A base da técnica é o uso da luz associada a um fotossensibilizador, na presença de oxigênio, de forma a promover a formação de espécies reativas de oxigênio que culminam na morte celular. Esta técnica é altamente seletiva, e apresenta poucos efeitos colaterais. A efetividade da terapia pode ser avaliada com base na emissão de fluorescência do fotossensibilizador, uma vez que o grau de fotodegradação deste indica uma terapia mais ou menos efetiva. No caso de tumores, a reincidência de lesões, causada por células malignas remanescentes, é um problema importante e que pode piorar as condições clínicas de um paciente. Este estudo propõe, portanto, um modelo matemático baseado na aferição da fluorescência do fotossensibilizador in situ para previsão da extensão do dano promovido pela terapia fotodinâmica em tempo real. Esta aferição é feita em comparação com o parâmetro experimental de profundidade de necrose, de modo a avaliar se uma lesão pode ser completamente eliminada numa dada aplicação. O estudo utilizou fígados de ratos Wistar machos, saudáveis, como modelo inicial dada sua relativa homogeneidade óptica com relação a lesões tumorais, visando minimizar variáveis. Os fígados foram irradiados com diferentes intensidades (150, 250 e 350 mW/cm2) e com diferentes fluências (50-450 J/cm2) de luz com comprimento de onda de 630 nm, CW, para avaliação das necroses e da fluorescência (avaliada usando 532 nm para excitação). A primeira versão do modelo utilizou o conjunto de dados de 250 mW/cm2 para obtenção de um modelo inicial baseado na fotodegradação avaliada por fluorescência. Este modelo foi alterado com base em modificações biológicas observadas na literatura durante a terapia. Tais alterações estão relacionadas à modificação de aporte de oxigênio causada por vasoconstricção, pela farmacocinética do fotossensibilizador e pelas modificações nas propriedades ópticas intrínsecas ao tecido. Foi possível encontrar equivalência entre modelo e experimentação ao final das modificações propostas ao modelo inicial, embora tenha sido evidente o efeito da variação no fracionamento da fluência entregue sobre os resultados da previsão. Como forma de mostrar a capacidade do modelo não apenas para previsão da profundidade de necrose (e, portanto, da extensão do dano), mas também para avaliações de dosimetria, foi proposta uma situação hipotética onde se entrega a mesma fluência de luz com intensidades diferentes (variando linearmente). Este teste mostrou o potencial do modelo não apenas para avaliar a extensão do dano causado pela terapia em tempo real, mas também para estimar os resultados de protocolos clínicos não-testados e, portanto, para a proposta de melhorias a protocolos de terapia fotodinâmica. / Malignant and pre-malignant cancer lesions treatment is an important application of photodynamic therapy. It is based on the use of light associated to a photosensitizer, in the presence of oxygen, so that reactive oxygen species may be formed, resulting in cell death. This is a highly selective technique, and few side effects are reported. The therapy efficacy may be evaluated through the photosensitizer fluorescence emission, since its level of bleaching indicates a more or less effective therapy application. Concerning cancer, recurrent lesions, caused by remaining malignant cells, is an important problem which may cause the worsening of patient´s clinical condition. Therefore, this study proposes a mathematical model based on the assessment of photosensitizer fluorescence in situ for prediction of the damage extent caused by photodynamic therapy. This evaluation is performed by comparison with the experimental parameter of depth of necrosis, as to evaluate if a lesion can be completely eliminated during an application. This study used male Wistar rats healthy livers as an initial model due to its relative optical homogeneity when compared to tumor lesions, hence minimizing variables. Livers were irradiated using different light fluence rates (150, 250 and 350 mW/cm2) and fluences (50-450 J/cm2) with 630 nm wavelength, CW, to perform evaluation of fluorescence (wit 532 nm excitation) and depth of necrosis. A first model was obtained from the 250 mW/cm2 dataset, based on fluorescence-assessed photobleaching. Such model was modified according to literature observations on biological changes during therapy. Those changes are related to the oxygen arrival, promoted by vessels shutdown, by the photosensitizer pharmacokinetics and by the changes in the intrinsic optical properties of liver tissue. Correspondence between model and experimentation was achieved after the changes proposed to the initial model, although the effect of different fractioning of light fluences on prediction has become evident. To show the model ability not only to predict depth of necrosis (and, hence, damage extent), but also for dosimetry studies, an hypothetical situation in which the same fluence has been delivered in different (linearly varying) fluence rates. This test result showed the potential of the model not only to evaluate the damage extension by the therapy in real-time, but also to investigate untested clinical protocols results and, therefore, to allow proposals of improvement to photodynamic therapy protocols.
475

A new 3D shape descriptor based on depth complexity and thickness information / Um novo descritor de formas 3D baseado em informações de depth complexity e thickness

Schmitt, Wagner January 2015 (has links)
Modelos geométricos desempenham um papel fundamental em divérsas áreas, desde a indústria do entretenimento até aplicações científicas. Para reduzir o elevado custo de criação de um modelo 3D, a reutilização de modelos existentes é a solução ideal. Recuperação de modelos 3D utilizam técnicas baseadas em conteúdo (do inglês CBR) que auxiliam a busca de modelos desejados em repositórios massivos, muitos disponíveis publicamente na Internet. Pontos principais para técnicas CBR eficientes e eficazes são descritores de forma que capturam com precisão as características de uma forma 3D e são capazes de discriminar entre diferentes formas. Nós apresentamos um descritor com base na distribuição de duas características globais, extraídas de uma forma 3D, depth complexity e thickness, que, respectivamente, capturam aspectos da topologia e da geometria das formas 3D. O descritor final, chamado DCT (depth complexity and thickness histogram), é um histograma 2D invariante a translações, rotações e escalas das formas geométricas. Nós eficientemente implementamos o DCT na GPU, permitindo sua utilização em consultas em tempo real em grandes bases de dados de modelos 3D. Nós validamos o DCT com as Princeton e Toyohashi Forma Benchmarks, contendo 1815 e 10000 modelos respectivamente. Os resultados mostram que DCT pode discriminar classes significativas desses benchmarks, é rápido e robusto contra transformações de forma e diferentes níveis de subdivisão e suavidade dos modelos. / Geometric models play a vital role in several fields, from the entertainment industry to scientific applications. To reduce the high cost of model creation, reusing existing models is the solution of choice. Model reuse is supported by content-based shape retrieval (CBR) techniques that help finding the desired models in massive repositories, many publicly available on the Internet. Key to efficient and effective CBR techniques are shape descriptors that accurately capture the characteristics of a shape and are able to discriminate between different shapes. We present a descriptor based on the distribution of two global features measured on a 3D shape, depth complexity and thickness, which respectively capture aspects of the geometry and topology of 3D shapes. The final descriptor, called DCT (depth complexity and thickness histogram), is a 2D histogram that is invariant to the translation, rotation and scale of geometric shapes. We efficiently implement the DCT on the GPU, allowing its use in real-time queries of large model databases. We validate the DCT with the Princeton and Toyohashi Shape Benchmarks, containing 1815 and 10000 models respectively. Results show that DCT can discriminate meaningful classes of these benchmarks, and is fast to compute and robust against shape transformations and different levels of subdivision and smoothness.
476

Multi-fragment visibility determination in the context of order-independent transparency rendering / Determinação de visibilidade de efeitos multi-fragmentos no contexto de transparência independente de ordem

Maule, Marilena January 2015 (has links)
No contexto de imagens geradas por computador, efeitos multi-fragmento são aqueles que determinam a cor do pixel baseados em informações computadas a partir de mais de um fragmento. Nesse tipo de efeito, a contribuição de cada fragmento é extraída de sua visibilidade com respeito a um determinado ponto de vista. Observando uma sequencia de fragmentos vista através de um pixel, a visibilidade de um fragmento depende da sua relação espacial com os demais fragmentos. Essa relação pode ser reduzida ao problema de ordenação de múltiplos fragmentos. Portanto, ordenação é essencial para correta avaliação de efeitos multi-fragmento. A pesquisa desta tese foca em dois problemas multi-fragmento clássicos: transparência independente de ordem e anti-aliasing de fragmentos transparentes. Enquanto o efeito de transparência necessita de ordenação de fragmentos ao longo do raio de visualização do pixel, anti-aliasing aumenta a complexidade do problema ao adicionar informação espacial do fragmento com respeito à área do pixel. A contribuição desta tese é o desenvolvimento de uma solução para visibilidade de fragmentos que pode tirar proveito do pipeline de transformação e iluminação, implementando nas GPUs de hoje. Nós descrevemos ambos os problemas de transparência e anti-aliasing, discutindo soluções anteriores, além de classificá-las e compará-las. Nossa análise associa soluções a implementações específicas, comparando uso de memória, desempenho e qualidade de imagem. Os documentos resultantes fornecem uma visão geral das áreas abordadas, contendo: qual é o estado-da-arte atualmente, o que ele é capaz de fazer e quais são suas limitações, ou seja, onde melhorias são possíveis. Como parte integrante desta tese, nós propomos duas novas técnicas para processar transparência independente de ordem. Nós mostramos como obter o menor consumo de memória para cálculo exato de transparência, em um número finito de passos de geometria; permitindo aumento da complexidade das cenas representadas e da resolução da imagem final, em relação aos métodos anteriores, dada uma determinada configuração de hardware. Adicionalmente, demonstramos que, para a maior parte dos casos, os fragmentos mais próximos ao observador tem maior impacto sobre a cor final do pixel. Também mostramos como esta perspectiva sobre o problema inspirou novas técnicas. A pesquisa também inclui a investigação de uma nova abordagem para anti-aliasing para fragmentos transparentes. Através do uso de uma única amostra por fragmento, nosso objetivo é reduzir o consumo de memória enquanto melhoramos desempenho e qualidade. Experimentos preliminares apresentam resultados promissores em comparação com a técnica mais usada para anti-aliasing. / Multi-fragment effects, in the computer-generated imagery context, are effects that determine pixel color based on information computed from more than one fragment. In such effects, the contribution of each fragment is extracted from its visibility with respect to a point of view. Seen through a pixel’s point of view, the visibility of one fragment depends on its spatial relationship with other fragments. This relationship can be reduced to the problem of sorting multiple fragments. Therefore, sorting is the key to multi-fragment evaluation. The research on this dissertation is focused on two classical multi-fragment effects: order-independent transparency and anti-aliasing of transparent fragments. While transparency rendering requires sorting of fragments along the view ray of a pixel, anti-aliasing increases the problem complexity by adding spatial information of fragments with respect to the pixel area. This dissertation contribution relies on the work towards the development of a solution for the visibility of fragments that can take advantage of the transformation and lighting pipeline implemented in current GPUs. We describe both transparency and aliasing problems, for which we discuss existing solutions, analyzing, classifying and comparing them. The analysis associates solutions to specific applications, comparing memory usage, performance, and quality. The result is a general view of each field: which are the current state-of-the-art capabilities and in which direction significant improvements can be made. As part of this dissertation, we proposed two novel techniques for order-independent transparency rendering. We show how to achieve the minimum memory footprint for computing exact transparency in a bounded number of geometry passes; allowing increasing scene complexity and image resolution to be feasible within current hardware capabilities. Additionally, we demonstrate that, for most scenarios, the front-most fragments have the greatest impact on the pixel color. We also show how the perspective we propose has inspired recent transparency techniques. The research includes the investigation of a novel anti-aliasing approach for transparent fragments. Through the use of a single sample per fragment, we aim at reducing memory footprint while improving performance and quality. Preliminary experiments show promising results, in comparison with a well established and largely used anti-aliasing technique.
477

Modelagem batimétrica e dinâmica sedimentar do leito do Rio Capibaribe após dragagem de aprofundamento

MELO, Rafael Roney Camara de 29 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-12-01T14:13:33Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao_Rafael_Melo_VFINAL.pdf: 1936423 bytes, checksum: 5f7a0702bd396f567a2396991a2471a8 (MD5) / Made available in DSpace on 2016-12-01T14:13:33Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao_Rafael_Melo_VFINAL.pdf: 1936423 bytes, checksum: 5f7a0702bd396f567a2396991a2471a8 (MD5) Previous issue date: 2016-02-29 / A cidade do Recife vem enfrentando problemas de mobilidade nos últimos anos devido ao crescimento da circulação de veículos automotores associado a ocupação do espaço urbano que dificulta a criação ou ampliação de vias. A solução para esta problemática passa pelo investimento de novas opções de transporte público e nesse sentido surgiu a ideia da criação de um sistema de transporte fluvial no rio Capibaribe. A criação de um corredor fluvial exige investimentos na modificação da calha natural do rio através de dragagens de aprofundamento, e o controle destas dragagens é feita por levantamentos batimétricos para obter a profundidade da superfície submersa antes e depois das dragagens, mensurar os volumes dragados e monitorar os processos de erosão e deposição do sedimento do leito do rio. Dentro desse contexto, o trabalho teve como objetivo, no Capítulo 1, avaliar os levantamentos batimétricos e suas influencias na determinação da superfície submersa, investigar as diferenças entre 4 interpoladores espaciais, variando a densidade de pontos, direção do levantamento (Seções longitudinais ou seções transversais. No Capítulo 2, teve como objetivo avaliar as formas do leito através de perfis longitudinais e transversais, após as dragagens de aprofundamento, com foco nos impactos da dragagens nos processos de erosão e deposição de sedimentos, onde foi elaborado também modelado e exibida as regiões críticas para os processos citados. Os modelos digitais de profundidade (MDP) criados conseguiram representar a superfície submersa de modo satisfatório, com valores reduzidos para o EMQ e coeficientes de determinação (R²) que variaram entre 0,865 e 0,967. Em relação aos trechos estudados, o percentual de pontos utilizados na construção dos MDPs foi mais relevante no terceiro trecho executado em seções longitudinais e com menor densidade de pontos, tendo apenas o interpolador IQD apresentado baixo desempenho comparado as demais técnicas de interpolação. O perfil primitivo, tomado como referência de equilíbrio entre o volume erodido e depositado servirá como parâmetro para previsão dos locais com maiores tendências de agradação, fornecendo informações importantes para o controle das dragagens de manutenção. Foram comparados os perfis longitudinais e transversais de duas áreas situadas no canal de navegação oeste, uma com 350 metros e outra com 1000 metros, onde se verificou que na área 1 a erosão/remoção de sedimentos superou a sedimentação/agradação, indicando a ocorrência de dragagem no intervalo entre os dois levantamentos associado aos processos naturais. Na área de estudo 2 o processo de sedimentação/agradação superou o de remoção/erosão, com um volume equivalente a uma camada de 1 cm de espessura. A agradação ocorreu de forma homogênea no canal de navegação, enquanto que a erosão localizou-se nas margens, mais intensamente na margem direita. / The city of Recife is facing mobility problems in recent years due to increased movement of motor vehicles associated with occupation of urban space that hinders the creation or expansion of roads. The solution to this problem through the investment of new public transport options and in that sense did the idea of creating a river transport system in the Capibaribe River. The creation of a river corridor requires investment in natural trough modification of the river through deepening dredging, and the control of these dredging is done by bathymetric surveys for the depth of the submerged surface before and after the dredging, measure the dredged volumes, and monitor the erosion and deposition of riverbed sediment. In this context, the study aimed, in Chapter 1, evaluate the bathymetric surveys and their influence in determining the submerged surface, investigate the differences between 4 spatial interpolation by varying the density of points, direction of the survey (longitudinal sections or cross sections. In Chapter 2, we aimed to evaluate the bed ways of longitudinal and transverse profiles, after the dredging depth, focusing on the impacts of dredging in erosion and sediment deposition, which was prepared also modeled and displayed regions Critical to the above processes. Digital models of depth created managed to represent the submerged surface satisfactorily, with lower values for EMQ and coefficients of determination (R²) ranging between 0.865 and 0.967. With regard to the sites studied, the percentage of points used in the construction of MDPs was more relevant in the third stretch run on longitudinal sections and lower density of points, having only IQD interpolating presented poor performance compared to the other interpolation techniques. Primitive profile, taken as reference balance between eroded and deposited volume will serve as a parameter for predicting the places with major trends of aggradation, providing important information for the control of maintenance dredging. They compared the longitudinal and transverse profiles of two areas located in western shipping channel, one with 350 meters and over 1000 meters, where it was found that the area 1 to erosion / sediment removal exceeded sedimentation / aggradation, indicating the occurrence of Dredging in the interval between the two surveys linked to the natural processes. In the study area 2 the sedimentation / agradation exceeded the removal / erosion, with a volume equivalent to 1 cm thickness. The aggradation occur homogeneously in the navigation channel, while erosion was located on the banks, more intensely on the right bank.
478

Avaliação comparativa da dimensão do sulco gengival por tomografia de coerência óptica e sondas periodontais em indivíduos saudáveis

FERNANDES, Luana Osório 11 February 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-02-14T13:32:22Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao LUANA OSÓRIO FERNANDES.pdf: 1894600 bytes, checksum: 262777160a929e18e667f73cb8233ae7 (MD5) / Made available in DSpace on 2017-02-14T13:32:22Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao LUANA OSÓRIO FERNANDES.pdf: 1894600 bytes, checksum: 262777160a929e18e667f73cb8233ae7 (MD5) Previous issue date: 2015-02-11 / Este estudo avaliouo desempenho daTomografia de Coerência Ópticaem1325nmcomoum método não invasivopara medir a profundidadedo sulco gengivalde indivíduossaudáveisem comparação comsondasperiodontaistradicionais emumambiente clínico.Dois observadoresavaliaram aprofundidade dosulco gengivalde 445sitios emdentes anteriores, tanto superior einferior,de 23 indivíduos saudáveis, por meio de três ferramentas: sonda periodontal Carolinado Norte (NC), sonda computadorizadaFloridaProbe (FP)eTomografia por Coerência Óptica(OCT). Foi obtido oíndice de refraçãogengival,necessário para correção dos valores obtidos por OCT,a partir da análisede19 amostras provenientes de cirurgia periodontal. Para cada técnica, foiregistradoo grau de desconforto/dor, através da escala verbal de 4 pontos(VRS-4) e Escala Numérica da Dor (END), e o tempo com auxílio de cronômetro digital.As imagens de OCT mostraramestruturas anatômicasclinicamente relevantes do ponto de vista periodontalnaáreaavaliada.O valor médiocalculadopara o índicede refraçãoda gengivafoi de 1,41±0,06, dado utilizado para realizar a correção dos valores obtidos pelo OCT, através de regra de três simples.As imagens de OCT proporcionaram analisar o correspondente ao sulco gengivalhistológicocom valor médiode 0,86±0,27 milímetros.A sondaNCresultou em maiores valores de profundidade(1,43 ±0,56 milímetros), seguido pelaFP(1,25±0,58 milímetros) que proporcionou umamaior frequência dedesconforto edor.O tempo registrado para cada técnica foi maior para o OCT (19,61±8,98 minutos) decorrente do caráter laboratorial do equipamento, seguido da FP (2,44±1,04 minutos) e NC (1,77±0,40 minutos), ambas adaptadas para aplicação clínica.Diante dos resultados, pode-se concluir que o OCTéummétodo promissorparaa análise in vivodasaúde periodontal, permitindoo diagnósticoprecoce e preciso, de maneiranão invasiva, e que sua influência e interferênciasobre a avaliaçãoclínicaéinexistente, diferente dousodeumasonda periodontal.Porém, ainda se faz necessário a adaptação do equipamento para utilização na clinica odontológica. / This study evaluatedthe performance ofOpticalCoherenceTomographyin 1325nmas a noninvasivemethodto measure the depthof the gingival sulcusof healthysubjects compared totraditionalperiodontalprobesin a clinical setting.Twoobservers evaluatedthe depth of thegingival sulcusof 445sitesin anterior teeth, both top and bottomof 23individuals, using threetools: periodontal probeNorth Carolina (NC), electronic probeFloridaProbe (FP) and Optical CoherenceTomography(OCT). Was obtainedgingivalindex of refractionneeded tocorrect thevalues obtained byOCT,from the analysisof 19samples fromperiodontalsurgery. For eachtechnique,the degree of discomfort/painwas recordedbyverbal4-point scale(VRS-4) and NumericalPainScale (NPS), andtimeusing a digitalstopwatch.The OCTimages showedclinically relevantanatomical structures of theperiodontalviewpoint in thearea evaluated.Theaverage value calculated forthegumrefractive indexwas 1.41± 0.06, as used to perform thecorrection of values obtainedbyOCT,throughsimple rule of three.TheOCTimagesprovidedanalyze thehistologicalsulcuscorresponding toan average valueof 0.86±0.27 mm.The CNproberesulted in greaterdepth values(1.43± 0.56millimeters), followed by FP(1.25±0.58 mm) which gavea higher frequency ofdiscomfort and pain.Thetime recordedfor each techniquewas higher fortheOCT(19.61 ±8.98 minutes) due to thecharacter oflaboratoryequipment, followed by FP(2.44±1.04 minutes) andNC (1.77 ±0, 40 minutes), bothadaptedfor clinical application. With the results, we can concludethatOCTis apromising method forin vivoanalysisof periodontalhealth, enabling early and accurate diagnosis, noninvasively, andthat its influenceandinterferenceon clinical evaluationis lacking,differentthe use ofa periodontalprobe.However,the upgrading of equipmentis still neededfor usein the dentalclinic.
479

Object detection and pose estimation from natural features for augmented reality in complex scenes

SIMOES, Francisco Paulo Magalhaes 07 March 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-29T16:49:07Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TeseFinal_fpms.pdf: 108609391 bytes, checksum: c84c50e3c8588d6c85e44f9ac6343200 (MD5) / Made available in DSpace on 2017-11-29T16:49:07Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TeseFinal_fpms.pdf: 108609391 bytes, checksum: c84c50e3c8588d6c85e44f9ac6343200 (MD5) Previous issue date: 2016-03-07 / CNPQ / Alignment of virtual elements to the real world scenes (known as detection and tracking) relying on features that are naturally present on the scene is one of the most important challenges in Augmented Reality. When it goes to complex scenes like industrial scenarios, the problem gets bigger with the lack of features and models, high specularity and others. Based on these problems, this PhD thesis addresses the question “How to improve object detection and pose estimation from natural features for AR when dealing with complex scenes problems?”. In order to answer this question, we need to ask ourselves “What are the challenges that we face when developing a new tracker for real world scenarios?”. We begin to answer these questions by developing a complete tracking system that tackles some characteristics typically found in industrial scenarios. This system was validated in a tracking competition organized by the most important AR conference in the world, called ISMAR. During the contest, two complementary problems to tracking were also discussed: calibration, procedure which puts the virtual information in the same coordinate system of the real world, and 3D reconstruction, which is responsible for creating 3D models of the scene to be used for tracking. Because many trackers need a pre-acquired model of the target objects, the quality of the generated geometric model of the objects influences the tracker, as observed on the tracking contest. Sometimes these models are available but in other cases their acquisition represents a great effort (manually) or cost (laser scanning). Because of this we decided to analyze how difficult it is today to automatically recover 3D geometry from complex 3D scenes by using only video. In our case, we considered an electrical substation as a complex 3D scene. Based on the acquired knowledge from previous experiments, we decided to first tackle the problem of improving the tracking for scenes where we can use recent RGB-D sensors during model generation and tracking. We developed a technique called DARP, Depth Assisted Rectification of Patches, which can improve matching by using rectified features based on patches normals. We analyzed this new technique under different synthetic and real scenes and improved the results over traditional texture based trackers like ORB, DAFT or SIFT. Since model generation is a difficult problem in complex scenes, our second proposed tracking approach does not depend on these geometric models and aims to track texture or textureless objects. We applied a supervised learning technique, called Gradient Boosting Trees (GBTs) to solve the tracking as a linear regression problem. We developed this technique by using image gradients and analyzing their relationship with tracking parameters. We also proposed an improvement over GBTs by using traditional tracking approaches together with them, like intensity or edge based features which turned their piecewise constant function to a more robust piecewise linear function. With the new approach, it was possible to track textureless objects like a black and white map for example. / O alinhamento de elementos virtuais com a cena real (definido como detecção e rastreamento) através de características naturalmente presentes em cena é um dos grandes desafios da Realidade Aumentada. Quando se trata de cenas complexas, como cenários industriais, o problema se torna maior com objetos pouco texturizados, alta especularidade e outros. Com base nesses problemas, esta tese de doutorado aborda a questão "Como melhorar a detecção de objetos e a estimativa da sua pose através de características naturais da cena para RA ao lidar com problemas de cenários complexos?". Para responder a essa pergunta, precisamos também nos perguntar: Quais são os desafios que enfrentamos ao desenvolver um novo rastreador para cenários reais?". Nesta tese, começamos a responder estas questões através da criação de um sistema de rastreamento completo que lida com algumas características tipicamente encontradas em cenários industriais. Este sistema foi validado em uma competição de rastreamento realizada na principal conferência de RA no mundo, chamada ISMAR. Durante a competição também foram discutidos dois problemas complementares ao rastreamento: a calibração, procedimento que coloca a informação virtual no mesmo sistema de coordenadas do mundo real, e a reconstrução 3D, responsável por criar modelos 3D da cena. Muitos rastreadores necessitam de modelos pré-adquiridos dos objetos presentes na cena e sua qualidade influencia o rastreador, como observado na competição de rastreamento. Às vezes, esses modelos estão disponíveis, mas em outros casos a sua aquisição representa um grande esforço (manual) ou custo (por varredura a laser). Devido a isto, decidimos analisar a dificuldade de reconstruir automaticamente a geometria de cenas 3D complexas usando apenas vídeo. No nosso caso, considerou-se uma subestação elétrica como exemplo de uma cena 3D complexa. Com base no conhecimento adquirido a partir das experiências anteriores, decidimos primeiro resolver o problema de melhorar o rastreamento para as cenas em que podemos utilizar sensores RGB-D durante a reconstrução e o rastreamento. Foi desenvolvida a técnica chamada DARP, sigla do inglês para Retificação de Patches Assistida por Informação de Profundidade, para melhorar o casamento de características usando patches retificados a partir das normais. A técnica foi analisada em cenários sintéticos e reais e melhorou resultados de rastreadores baseados em textura como ORB, DAFT ou SIFT. Já que a reconstrução do modelo 3D é um problema difícil em cenas complexas, a segunda abordagem de rastreamento não depende desses modelos geométricos e pretende rastrear objetos texturizados ou não. Nós aplicamos uma técnica de aprendizagem supervisionada, chamada Gradient Boosting Trees (GBTs) para tratar o rastreamento como um problema de regressão linear. A técnica foi desenvolvida utilizando gradientes da imagem e a análise de sua relação com os parâmetros de rastreamento. Foi também proposta uma melhoria em relação às GBTs através do uso de abordagens tradicionais de rastreamento em conjunto com a regressão linear, como rastreamento baseado em intensidade ou em arestas, propondo uma nova função de predição por partes lineares mais robusta que a função de predição por partes constantes. A nova abordagem permitiu o rastreamento de objetos não-texturizados como por exemplo um mapa em preto e branco.
480

Determinacao de defeitos em profundidade (estereoradiografia)

CARVALHO, GILBERTO 09 October 2014 (has links)
Made available in DSpace on 2014-10-09T12:45:50Z (GMT). No. of bitstreams: 0 / Made available in DSpace on 2014-10-09T14:07:49Z (GMT). No. of bitstreams: 1 07313.pdf: 4614224 bytes, checksum: b35f3b3a0d88e2ee74e856c2c7883aaf (MD5) / Dissertacao (Mestrado) / IPEN/D / Instituto de Pesquisas Energeticas e Nucleares - IPEN/CNEN-SP

Page generated in 0.0361 seconds