• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3158
  • 289
  • 267
  • 27
  • 25
  • 17
  • 17
  • 17
  • 11
  • 9
  • 9
  • 9
  • 7
  • 6
  • 4
  • Tagged with
  • 3822
  • 1178
  • 1012
  • 579
  • 546
  • 534
  • 478
  • 456
  • 442
  • 389
  • 332
  • 330
  • 317
  • 304
  • 303
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Investigação do leito de jorro como reator em potencial de pirólise de partículas cartonadas

MARQUES, I. I. D. R. 16 August 2013 (has links)
Made available in DSpace on 2016-08-29T15:39:00Z (GMT). No. of bitstreams: 1 tese_6749_Icaro Marques.pdf: 2856445 bytes, checksum: 17453856c050fda58fa4334fc882ea8a (MD5) Previous issue date: 2013-08-16 / Atualmente, a pirólise vem recebendo atenção especial em função do seu potencial de aplicação em áreas que constituem desafios do mundo contemporâneo, dentre as quais se destacam a necessidade de produção de energia renovável e a questão do gerenciamento dos resíduos sólidos. Dentre os resíduos sólidos urbanos, as embalagens cartonadas destacam-se pelos produtos primários com alto valor agregado obtidos a partir de sua pirólise. Por apresentar bom contato gás-sólido, altas taxas de transferência de calor e massa e baixa segregação de partículas, o leito de jorro cônico surge como uma alternativa eficiente para a pirólise de embalagens cartonadas. Neste contexto, com o intuito de contribuir para a aplicação do leito de jorro cônico como reator de pirólise, o presente trabalho tem como objetivo estudar a fluidodinâmica de partículas cartonadas em leito de jorro. Para atingir tal meta, o comportamento fluidodinâmico de misturas de discos cartonados com partículas de diferentes massas específicas, a saber, polietileno e areia, foi investigado. Dados experimentais dessas misturas de queda de pressão em função da velocidade do ar no leito foram obtidos e analisados. As condições operacionais empregadas no leito de jorro cônico foram simuladas por meio da técnica de CFD. Para os leitos compostos por polietileno e discos cartonados com uma proporção mássica de 5 a 50% de cartonadas, a análise dos dados experimentais mostraram que o regime de jorro foi atingido. Para as misturas de areia e discos cartonados em leito de jorro, o regime de jorro foi atingido para os leitos contendo 5 e 10% em massa de cartonadas. Nas condições operacionais empregadas nesta pesquisa, as simulações CFD mostraram que o modelo Euleriano Granular Multifásico aplicado com o modelo de arraste de Syamlal-OBrien é capaz de predizer qualitativamente o comportamento fluidodinâmico característico de um leito de jorro cônico operando com misturas de partículas não esféricas. Uma análise do reaproveitamento das embalagens cartonadas por meio da pirólise, sob os pontos de vista energético e ambiental, mostra que uma grande quantidade de energia e bauxita pode ser economizada em função do alumínio que é recuperado no processo.
32

Fusão de descritores de histogramas de gradientes para a detecção de faces baseado em uma cascata de classificadores.

Ramírez Cerna, Lourdes January 2014 (has links)
Programa de Pós-Graduação em Ciência da Computação. Departamento de Ciência da Computação, Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto. / Submitted by Oliveira Flávia (flavia@sisbin.ufop.br) on 2015-01-06T19:20:42Z No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_FusãoDescritoresHistogramas.pdf: 5665825 bytes, checksum: f39862c7497c8adf0a683ef324097143 (MD5) / Approved for entry into archive by Gracilene Carvalho (gracilene@sisbin.ufop.br) on 2015-01-16T15:31:14Z (GMT) No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_FusãoDescritoresHistogramas.pdf: 5665825 bytes, checksum: f39862c7497c8adf0a683ef324097143 (MD5) / Made available in DSpace on 2015-01-16T15:31:14Z (GMT). No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_FusãoDescritoresHistogramas.pdf: 5665825 bytes, checksum: f39862c7497c8adf0a683ef324097143 (MD5) Previous issue date: 2014 / O problema de detecção de faces em imagens ou vídeos tem sido amplamente estudado pela comunidade científica. Muitas pesquisas foram desenvolvidas durante décadas desde as mais simples até as mais complexas com a finalidade de superar alguns problemas existentes nas imagens ou vídeos, por exemplo: oclusão, mudanças de iluminação, variações de pose e escala, entre outros. Neste trabalho é proposto um método de detecção de faces que concatena o Histograma de Gradientes Orientados (HOG) e o Histograma de Gradientes Orientados Médios (HAOG) para finalmente classificá-los dados através de uma cascata de classificadores de “uma classe" baseados no modelo convexo mais próximo. A cascata de classificadores de “uma classe" permite gerar classificadores mais simples com uma rejeição de falsos positivos mais rápida. Além de reduzir a região de busca é utilizado um algoritmo de detecção de pele, o que também permite diminuir o número de falsos positivos, sendo está característica a principal contribuição deste trabalho. Logo, é gerada uma pirâmide de imagens com o intuito de detectar faces de diferentes tamanhos nas regiões configuradas como pele. O método proposto conseguiu uma melhor acurácia e o menor número de falsos positivos quando foi comparado com os métodos HOG, HAOG, HOG-LBP (Cevikalp et al. 2013) e (Viola and Jones 2004). Mostrou-se resultados promissores quando comparados com os métodos do estado da arte considerados no benchmark da base FDDB (Jain and Learned Miller 2010). ______________________________________________________________________________________________ / ABSTRACT: Face detection problem in images or videos has been widely studied by scientific community. Many researches have been developed in the last decades, from the most simple to the most complex to overcome some problems related in images or videos, i.e. occlusion, illuminations changes, pose and scale variations, among others. This thesis proposes a method for face detection problem, which concatenates Histogram of Oriented Gradients and Histogram of Averaged Oriented Gradients to classify them through a cascade of “one class" classifiers based on the nearest convex model. A cascade of “one class" classifiers generate simple classifiers to reject false positives quickly. To reduce the search region and the false positives number is used a skin detection algorithm, which is the principal contribution of this work. Then, we generate a pyramid image to detect faces with different size in the skin regions. The proposed method achieved the best accuracy and the fewest false positives number when we compare with HOG, HAOG, HOG-LBP (Cevikalp et al. 2013) and (Viola and Jones 2004) methods. We reached promising results when we compared with state-of-the-art methods considered in the FDDB benchmark (Jain and Learned Miller 2010).
33

O uso da simulação computacional como ferramenta de auxílio à tomada de decisão : aplicação em empresa de papelão ondulado

Castilho, Marcos Rossi January 2004 (has links)
A competição entre as empresas pela busca de mercado tem levado ao aprimoramento de suas atividades e melhorias em seus processos produtivos. Este trabalho apresenta a análise do processo produtivo de uma empresa produtora de embalagens de papelão ondulado através da técnica da simulação computacional. O simulador ProModel foi utilizado no desenvolvimento do estudo e se mostrou adequado para a modelagem do processo produtivo e geração de resultados. Com a sua capacidade de animação, criação de macros e geração de relatórios, ficou facilitado o desenvolvimento e analise de cenários. Isto permitiu que o foco do estudo ficasse sobre a análise dos resultados e simulação de cenários e não na programação para criação e rodagem do modelo de simulação. A partir da modelagem do processo real de trabalho foi possível identificar restrições de capacidades no sistema, o que levou à criação de cenários onde oportunidades de melhoria pudessem ser avaliadas. A revelação de que a parcial utilização do equipamento denominado Onduladeira, o qual gerava perdas por ociosidade nas impressoras, acabou se mostrando como o gargalo do processo produtivo é o mais indicado ponto de melhoria. Com o incremento de produtividade sobre este equipamento, definido a partir de análises dos cenários, obteve-se como resultado a utilização de 100% dos demais equipamentos do processo produtivo. Análises e comparações de resultados entre os cenários e as conclusões do estudo são apresentadas no final do trabalho.
34

Inclusão entre nuvem de pontos e digitalização 3D : estratégias e implementação

Moretti, Vinícius Fernandes January 2015 (has links)
Neste trabalho são investigadas soluções eficientes para o problema de determinar se uma nuvem de pontos está contida (ou, alternativamente, invade) a digitalização tridimensional da superfície de um sólido não necessariamente convexo. Estratégias baseadas no Teorema da Curva de Jordan, generalizadas para o caso tridimensional, bem como estratégias baseadas no estudo de volumes com sinal de tetraedros, foram testadas e comparadas segundo sua eficácia e eficiência computacional. Os experimentos computacionais foram feitos com digitalizações de pedras brutas disponibilizadas pelo Centro Tecnológico de Pedras de Soledade, RS. Este trabalho estabelece importante contribuição para a solução de relevante e mais complexo problema em Geometria Computacional: determinar se há inclusão (ou, alternativamente, invasão) espacial entre dois sólidos com superfícies digitalizadas, e que consequentemente tem variadas aplicações. / This work investigates e cient solutions to the problem of determining whether or not a cloud of points is contained (or alternatively, invades) the spatial digitization of the surface of a not-necessarily convex solid. Strategies based on the well-known Jordan Curve Theorem, once generalized to the 3D case, as well as those based on the analysis of signed volumes of tetrahedra, were tested and compared according to their robustness and e ciency. The numerical experiments used digitization of raw stones made available by the the Technological Center of Stones, Gems and Jewelry of the city of Soledade, in this state. The present work makes an important contribution to the solution to a relevant further complex problem in Computational Geometry: to determine whether or not there is spatial inclusion (or, alternatively, invasion) between two solids with digitized surfaces, which have several further applications.
35

Matriz não-modal em integração e inicialização num modelo barotrópico e um estudo numérico da dispersão vertical turbulenta / Integration and initialization by non-modal matrix in a barotropic model and a numerical study of the turbulent vertical dispersion

Campos Velho, Haroldo Fraga de January 1992 (has links)
A técnica da matriz não-moda! é útil num contexto em que não se tem acesso aos modos normais de um sistema, caso freqüente em muitos modelos meteorológicos de área limitada. O método é investigado no contexto de um modelo unidimensional, tanto para integração temporal, como para filtrar componentes de altas freqü ências dos dados iniciais do modelo (procedimento conhecido como inicialização). Determinam-se os campos de velocidade com o uso da inversa generalizada de Moore-Penrose, como solução de uma equação de Poisson associada a cada componente da velocidade horizontal. Mostra-se também um estudo da dispersão vertical de contaminantes em camadas estáveis, cujo coeficiente de difusão turbulenta é obtido ela teoria ele similaridade local , num esquema de fechamento de primeira ordem. / The non-modal matrix technique is valuable if it does not have knowledgc of thc normal medes of the system. It is very usual in many limited area metercological models. The method is investigated in the one-dimensional model context, for temporal integration, anel for filtering high frequcncies in the initial data of the model (this procedure is known as initialization) . The velocity fields are obtained by using thc Moore-Pcnrosc gcncralizcd invcrsc. This inverse is a solution of the Poisson equa.t ions assotiatcd to cach horizontal velocity component. It is also shown a study of the vertical dispersion of containants in stable la.ycrs, whose turbulent coefficient is taken from Lhe local similarity theory (first closc ordcr).
36

Modelo de dados para um Pipeline de seqüenciamento de alto desempenho transcritômico

Huacarpuma, Ruben Cruz 01 March 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de CIências Exatas, Departamento de Ciência da Computação, 2012. / Submitted by Sabrina Silva de Macedo (sabrinamacedo@bce.unb.br) on 2012-07-18T14:03:22Z No. of bitstreams: 1 2012_RubemCruzHuacarpuma.pdf: 2198938 bytes, checksum: 7873175586685ed25fd99884e923ad63 (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-07-30T12:35:11Z (GMT) No. of bitstreams: 1 2012_RubemCruzHuacarpuma.pdf: 2198938 bytes, checksum: 7873175586685ed25fd99884e923ad63 (MD5) / Made available in DSpace on 2012-07-30T12:35:11Z (GMT). No. of bitstreams: 1 2012_RubemCruzHuacarpuma.pdf: 2198938 bytes, checksum: 7873175586685ed25fd99884e923ad63 (MD5) / O rápido avanço nas técnicas de sequenciamento de alto desempenho de fragmentos de DNA/RNA criou novos desa os computacionais na área de bioinformática. Um desses desa os é administrar o enorme volume de dados gerados pelos sequenciadores automáticos, particularmente o armazenamento e a análise desses dados processados em larga escala. A existência de diferentes formatos de representação, terminologia, estrutura de arquivos e semânticas, faz muito complexa a representação e administração desses dados. Neste contexto, um modelo de dados para representar, organizar e garantir o acesso aos dados biológicos é essencial para suportar o trabalho dos pesquisadores do campo da biologia, quando fazendo uso de pipelines de sequenciamento de alto desempenho. Este trabalho propõe tanto um modelo de dados conceitual, como também seu respectivo esquema relacional, permitindo a representação e o gerenciamento de um pipeline de sequenciamento de alto desempenho para projetos transcritômicos no intuito de organizar e armazenar de maneira simples e e ciente os dados gerados em cada fase da análise do pipeline. Nesta dissertação, trabalhamos com pipelines de sequenciamento de alto desempenho com três fases: ltragem, mapeamento e análise. Para validar nosso modelo, apresentamos dois estudos de casos para identi car a expressão diferencial de genes usando dados de sequenciamento de alto desempenho transcritômico. Estes estudos de caso mostraram que introduzir o modelo de dados, e o esquema correspondente, tornou o pipeline mais e ciente, organizado, para dar suporte ao trabalho dos biólogos envolvidos em um projeto de transcritoma. _________________________________________________________________________________________ ABSTRACT / The rapid advances in high-throughput sequencing techniques of DNA/RNA fragments created new computational challenges in bioinformatics. One of these challenges is to manage the enormous volume of data generated by automatic sequencers, specially storage and analysis of these data processed on large scale. The existence of representation format, terminology, _le structure and semantics, becomes very complex representation and management of such data. In this context, a data model to represent, organize and provide access to biological data is essential to support the researchers works into biology_eld when using high-throughput sequencing. This work proposes a conceptual model as well as its database schema to representand manage a high-throughput transcriptome pipeline in order to organize and store in a simple and efficient way data generated in each pipeline phase. In this dissertation, we work with three phases high-throughput sequencing pipeline: _ltering, mapping and analysis. In order to validate our model, we present two case studies both having the objective of identifying deferentially expressed genes using high-throughput sequencing transcriptome data. These case studies showed that uses a data model, and its database schema, became the pipeline more efficient, organized, and support the biologists works involved in a transcriptome project.
37

Proveniência de dados em workflows de bioinformática

Paula, Renato de 11 July 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-04-02T15:07:00Z No. of bitstreams: 1 2012_RenatodePaula.pdf: 7698577 bytes, checksum: dc8fd7334d6b68f154510b6f7fc82753 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-04-03T14:02:55Z (GMT) No. of bitstreams: 1 2012_RenatodePaula.pdf: 7698577 bytes, checksum: dc8fd7334d6b68f154510b6f7fc82753 (MD5) / Made available in DSpace on 2013-04-03T14:02:55Z (GMT). No. of bitstreams: 1 2012_RenatodePaula.pdf: 7698577 bytes, checksum: dc8fd7334d6b68f154510b6f7fc82753 (MD5) / Avanços tecnológicos, tanto em equipamentos quanto em algoritmos, têm tornado a execução de experimentos científicos cada vez mais rápida e eficiente. Isso permite que os cientistas executem mais experimentos e possam compará-los entre si, o que traz maior acurácia às análises. Porém, a quantidade de dados que devem ser tratados aumenta a cada novo experimento executado, o que dificulta a identificação da origem dos dados e como os mesmos foram transformados em cada experimento. Assim, tem-se a necessidade de novas ferramentas que tornem possível preservar, não só as conclusões de um experimento científico, mas também a origem dos dados utilizados e as condições e parâmetros com os quais foram executados. Estudos recentes mostram que a utilização de modelos de proveniência de dados facilita o gerenciamento dos dados tanto em ambiente científico quanto naqueles disponibilizados pela internet. Uma importante área para o uso de proveniência de dados é o da bioinformática, principalmente em projetos genoma e transcritoma de alto desempenho, visto que seus experimentos geram grande volume de dados e seus processos podem ser executados diversas vezes com diferentes ferramentas, dados e parâmetros. Neste trabalho propomos a utilização de uma estrutura de proveniência de dados baseada no modelo PROV-DM para experimentos em projetos de bioinformática a fim de permitir que os cientistas possam trabalhar com seus experimentos em detalhes e, quando necessário, possam consultá-los e reexecutá-los de forma mais planejada e controlada. _____________________________________________________________________________________________________________________________ ABSTRACT / Technological Advances, both in equipment and algorithms, have made the execution of scientific experiments increasingly faster and more e efficient. This allows scientists to execute more experiments and compare them, generating greater accuracy in analyses. However, the great quantity of data to be treated increases with each new experiment performed, which makes it difficult to identify the origin of data and how they were transformed in each experiment. Thus, there is a pressing need for new tools that make possible the preservation of, not only conclusions of scientific experiments, but also the origin of data used and the conditions and parameters with which each were performed. Recent studies show that the use of data provenance models facilitates the management of data, both in the scientific environment and those available on the internet. An important area for the use of data provenance is in bioinformatics, mainly in genome and high performance transcriptome projects, since these experiments generate a large volume of data and their process can be executed many times with different tools, data and parameters. In this work we propose the use of a data provenance structure based on the model PROV-DM for experiments in bioinformatics projects with the objective of allowing scientists to work with their experiments in ne detail, and, when necessary, consult them or re-execute them in a more planned and controlled way.
38

Ordenação por transposições baseado no formalismo algébrico

Santos, Héderson Pereira dos 14 December 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2006. / Submitted by Luana Patrícia de Oliveira Porto (luana_porto_23@hotmail.com) on 2009-09-29T22:25:03Z No. of bitstreams: 1 2006_HedersonPereiraSantos.pdf: 829940 bytes, checksum: 2a5c9eb3eec94eeac21dfc0bcdb86756 (MD5) / Approved for entry into archive by Luanna Maia(luanna@bce.unb.br) on 2009-10-02T15:12:08Z (GMT) No. of bitstreams: 1 2006_HedersonPereiraSantos.pdf: 829940 bytes, checksum: 2a5c9eb3eec94eeac21dfc0bcdb86756 (MD5) / Made available in DSpace on 2009-10-02T15:12:08Z (GMT). No. of bitstreams: 1 2006_HedersonPereiraSantos.pdf: 829940 bytes, checksum: 2a5c9eb3eec94eeac21dfc0bcdb86756 (MD5) Previous issue date: 2006-12-14 / Biologia Computacional é uma área da Ciência da Computação que tem por objetivo o estudo e aplicação de técnicas e ferramentas computacionais aos problemas da Biologia Molecular. Dentre os problemas pesquisados, encontra-se o de evolução molecular, onde são estudados métodos para comparar seqüências de espécies distintas, baseados em eventos mutacionais. Estes métodos geram medidas de distância, que podem ser empregadas para verificar o relacionamento em termos evolutivos entre dois organismos. Uma técnica de computar distância é comparar blocos, formados por um ou mais genes, de genomas de dois organismos. O nosso trabalho pertence à área de Rearranjo de Genomas que, de forma genérica, visa resolver o problema combinatorial de encontrar uma seqüência mínima de eventos de rearranjo (mutações) que transformam um genoma em outro. Estudamos um evento de rearranjo específico – transposição, que move uma porção de genes de um local para outro dentro do mesmo cromossomo. Este evento gera o problema da ordenação por transposições, que consiste em computar e encontrar a menor seqüência de transposições que transformam um genoma em outro. Neste trabalho propusemos dois algoritmos de aproximação baseados no formalismo algébrico de Dias e Meidanis para o problema de ordenação por transposições. Implementamos estes algoritmos utilizando a linguagem Java e comparamos os resultados obtidos com outros encontrados na literatura. Este trabalho visa contribuir para encontrar a complexidade do problema de ordenação por transposições que ainda não é conhecida. _________________________________________________________________________________________ ABSTRACT / Computational Biology is an area that aims to study and to apply techniques and computational tools to problems of molecular biology. One of these problems is molecular evolution, in which methods are proposed for comparing sequences of distinct species, based on mutational events. These methods generate distance measures that could be employed to verify the evolutionary relationship between two organisms. A technique to compute distance is to compare blocks, composed by one ore more genes, of the genomes of two organisms. This work belongs to the field of genome rearrangement, that has the objective to solve the combinatorial problem of finding a minimum sequence of rearrangement events that transform a genome into another. We studied a particular rearrangement event - transposition, that moves a portion of genes from a local to another inside one chromosome. This event generates the problem of sorting by transpositions, that consists in computing and finding the minimum sequence of transpositions that transform a genome into another. In this work, we proposed two approximation algorithms based on the algebraic formalism of Dias and Meidanis to solve the problem of sorting by transpositions. We implemented these algorithms using the Java language, and compared the results obtained with the results of other algorithms found in the literature. This work aims to contribute to find the complexity of this problem still unknown.
39

Matriz não-modal em integração e inicialização num modelo barotrópico e um estudo numérico da dispersão vertical turbulenta / Integration and initialization by non-modal matrix in a barotropic model and a numerical study of the turbulent vertical dispersion

Campos Velho, Haroldo Fraga de January 1992 (has links)
A técnica da matriz não-moda! é útil num contexto em que não se tem acesso aos modos normais de um sistema, caso freqüente em muitos modelos meteorológicos de área limitada. O método é investigado no contexto de um modelo unidimensional, tanto para integração temporal, como para filtrar componentes de altas freqü ências dos dados iniciais do modelo (procedimento conhecido como inicialização). Determinam-se os campos de velocidade com o uso da inversa generalizada de Moore-Penrose, como solução de uma equação de Poisson associada a cada componente da velocidade horizontal. Mostra-se também um estudo da dispersão vertical de contaminantes em camadas estáveis, cujo coeficiente de difusão turbulenta é obtido ela teoria ele similaridade local , num esquema de fechamento de primeira ordem. / The non-modal matrix technique is valuable if it does not have knowledgc of thc normal medes of the system. It is very usual in many limited area metercological models. The method is investigated in the one-dimensional model context, for temporal integration, anel for filtering high frequcncies in the initial data of the model (this procedure is known as initialization) . The velocity fields are obtained by using thc Moore-Pcnrosc gcncralizcd invcrsc. This inverse is a solution of the Poisson equa.t ions assotiatcd to cach horizontal velocity component. It is also shown a study of the vertical dispersion of containants in stable la.ycrs, whose turbulent coefficient is taken from Lhe local similarity theory (first closc ordcr).
40

Inclusão entre nuvem de pontos e digitalização 3D : estratégias e implementação

Moretti, Vinícius Fernandes January 2015 (has links)
Neste trabalho são investigadas soluções eficientes para o problema de determinar se uma nuvem de pontos está contida (ou, alternativamente, invade) a digitalização tridimensional da superfície de um sólido não necessariamente convexo. Estratégias baseadas no Teorema da Curva de Jordan, generalizadas para o caso tridimensional, bem como estratégias baseadas no estudo de volumes com sinal de tetraedros, foram testadas e comparadas segundo sua eficácia e eficiência computacional. Os experimentos computacionais foram feitos com digitalizações de pedras brutas disponibilizadas pelo Centro Tecnológico de Pedras de Soledade, RS. Este trabalho estabelece importante contribuição para a solução de relevante e mais complexo problema em Geometria Computacional: determinar se há inclusão (ou, alternativamente, invasão) espacial entre dois sólidos com superfícies digitalizadas, e que consequentemente tem variadas aplicações. / This work investigates e cient solutions to the problem of determining whether or not a cloud of points is contained (or alternatively, invades) the spatial digitization of the surface of a not-necessarily convex solid. Strategies based on the well-known Jordan Curve Theorem, once generalized to the 3D case, as well as those based on the analysis of signed volumes of tetrahedra, were tested and compared according to their robustness and e ciency. The numerical experiments used digitization of raw stones made available by the the Technological Center of Stones, Gems and Jewelry of the city of Soledade, in this state. The present work makes an important contribution to the solution to a relevant further complex problem in Computational Geometry: to determine whether or not there is spatial inclusion (or, alternatively, invasion) between two solids with digitized surfaces, which have several further applications.

Page generated in 0.1076 seconds