• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 875
  • 58
  • 35
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 995
  • 315
  • 304
  • 301
  • 246
  • 235
  • 200
  • 199
  • 159
  • 151
  • 111
  • 92
  • 89
  • 82
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Aplicación e interpretación de técnicas de reducción de datos según escalamiento óptimo: (Análisis de correspondencia múltiple y análisis de componentes principales categóricos)

Morales Jacob, Fidel Elías 21 November 2004 (has links)
Sociólogo / El presente texto se realiza con el fin de explorar la estructura de las técnicas de reducción de datos del modulo categorías del programa estadístico SPSS. Dicha exploración permitirá potenciar futuros análisis y mejorar la complementación de la información digital y analógica de las técnicas. El documento se divide en cuatro partes generales: La primera parte corresponde al planteamiento del problema, Objetivos y metodología utilizada en este texto. La segunda parte contiene el desarrollo del análisis de correspondencias múltiple. Para ello, se utiliza un esquema de flujo que representa los principales momentos de decisión del analista en la aplicación. El esquema de flujo se complementa con la aplicación concreta de la técnica a datos reales. La tercera parte contiene el desarrollo del análisis de componentes principales categóricos (no lineal). Para ello, se utiliza el mismo procedimiento al análisis de correspondencia múltiple. La cuarta parte muestra las conclusiones del estudio. Las conclusiones se ha dividido en dos partes: La primera parte muestra una “recurrencia operativa” descubierta durante la construcción de este texto, que es la ubicación de las variables independientes e incorrelacionadas en el modelo; La segunda parte muestra las conclusiones generales del texto según los objetivos investigados
142

Quantificação de picos cromatograficos superpostos por metodos de calibração multivariada

Poppi, Ronei Jesus, 1961- 16 July 2018 (has links)
Orientador : Jose Fernando Gregori Faigle / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Quimica / Made available in DSpace on 2018-07-16T17:15:15Z (GMT). No. of bitstreams: 1 Poppi_RoneiJesus_M.pdf: 3208509 bytes, checksum: df96399b4f4732182e2a8b0c6f311ac7 (MD5) Previous issue date: 1989 / Mestrado
143

[en] DESIGN AND IMPLEMENTATION OF COLLECTIVE INTERFACES IN A COMPONENT-ORIENTED MIDDLEWARE / [pt] PROJETO E IMPLEMENTAÇÃO DE INTERFACES COLETIVAS EM UM MIDDLEWARE ORIENTADO A COMPONENTES DE SOFTWARE

PAULO DA SILVA SILVEIRA 11 October 2011 (has links)
[pt] Tradicionalmente, o processo de desenvolvimento de sistemas paralelos enfatiza o desempenho em detrimento de melhores abstrações de programação, o que acarreta problemas como excessiva complexidade de código e redução da manutenibilidade do software. Novas técnicas tem se mostrado interessantes na construção de software paralelo, tais como as tecnologias de componentes de software. Este trabalho realizou um estudo do mecanismo de comunicação paralela entre componentes conhecido como Interfaces Coletivas. Como parte desse estudo, foi realizada uma implementação desse mecanismo no middleware de componentes SCS, onde foram projetados e implementados dois conectores para sincronizaçãoe comunicação paralela. Essa implementação viabilizou uma análise dos requisitos para a integração das Interfaces Coletivas em um middleware orientado a componentes e possibilitou a identificação dos desafios de implementar esse mecanismo em uma linguagem como C++, amplamente usada em aplicações científicas. / [en] Traditionally, the development process of parallel systems emphasizes performance at the expense of better programming abstractions, which causes problems such as excessive code complexity and reduced software maintainability. New techniques have shown expressive results in building parallel software, such as software components technologies. This work conducted a study of the mechanism of parallel communication between components known as Collective Interfaces. As part of this study, we performed an implementation of this mechanism in the SCS middleware, where two connectors were designed and implemented for parallel synchronization and communnication. This implementation allowed us to analyze the requirements for the integration of Collective Interfaces in a component oriented middleware and to identify the challenges of implementing this mechanism in a language as C++, widely used in scientific applications.
144

Interacción de plaguicidas utilizados en la región semiárida pampeana con minerales constituyentes del suelo

Waiman, Carolina V. 14 March 2014 (has links)
Los beneficios que los herbicidas han brindado a la producción de cultivos son incuestionables, pero es importante resaltar que solamente una parte de lo que se aplica ejerce su función, el resto es distribuido en el ambiente. Surge entonces la preocupación de los efectos sobre la salud de humanos y animales ya que cierta cantidad permanece retenida a los componentes del suelo y de los sedimentos, y desde allí puede migrar hacia aguas de recreación y consumo, deteriorando de esta manera la calidad del agua. Luego de una introducción general en los capítulos 1 y 2, en el capítulo 3 se propone y utiliza un método simple y económico para cuantificar por UV-Vis al herbicida glifosato a través de la derivatización con FMOC-Cl (9-fluorenilmetil cloroformato). Se aplica este método para realizar isotermas de adsorción en muestras de suelo de la región semiárida pampeana y una muestra de goethita sintética. En el capítulo 4 se presenta un estudio por medio de espectroscopia ATR-FTIR de la adsorción competitiva entre glifosato y fosfato sobre goethita a pH constante. Puesto que ambas sustancias forman complejos superficiales de esfera interna con los mismos grupos de la goethita, se propone un mecanismo de intercambio de ligando para esta reacción. En el capítulo 5 se presenta un estudio por medio de isotermas de adsorción, movilidades electroforéticas y XPS de la adsorción competitiva entre glifosato y fosfato sobre goethita. Se evaluó el efecto de pH y de la concentración de fosfato. Los resultados obtenidos pueden ser interpretados teniendo en cuenta la competencia entre glifosato y fosfato y la presencia de sitios superficiales libres disponibles para la adsorción. Cuando hay muchos sitios libres disponibles las dos sustancias se adsorben de manera prácticamente independiente. En cambio, cuando quedan pocos sitios libres la competencia se hace más evidente. Los datos de XPS corroboran también la adsorción competitiva. En el capítulo 6 se presenta un estudio por medio de espectroscopia ATR-FTIR y de experimentos tipo “batch” de la cinética de adsorción de glifosato en ferrihidrita y de la competencia glifosato-citrato. Los resultados muestran que las dos sustancias compiten por los mismos sitios de adsorción y que el citrato es capaz de desplazar al glifosato de la superficie. La invariabilidad en la forma de los espectros indica que no se modifica la identidad de las especies involucradas en la competencia. En el capítulo 7 se presenta un estudio de adsorción del herbicida metsulfurón metil en 30 suelos de la región Semiárida Pampeana. Se determinó que los factores más importantes que controlan esta adsorción son el contenido de materia orgánica y el pH. La estimación de la movilidad a través del índice GUS mostró que este herbicida puede lixiviar en todos los suelos estudiados. / Herbicides seem to be absolutely necessary for crop production. However, only a small fraction of the applied dose acts as a weed killer, and the rest is dispersed in the environment. Significant amounts may eventually reach the soil and remain in the soil or be transported to other areas like underground water, lakes and streams. Herbicide pollution is becoming an important issue because they can affect nontarget organisms. Chapters 1 and 2 are introductory and background information is given. In chapter 3, a novel, simple and inexpensive method for glyphosate quantification is proposed. This method allows quantifying glyphosate by UV-Vis spectroscopy with a previous derivatization step with FMOCCl (9-fluorenyl methoxycarbonyl chloride). This method has been successfully used in adsorption isotherms experiments with soils of the semiarid pampean region and with a synthetic goethite sample. Chapter 4 presents an ATR-FTIR study of the competitive adsorption between glyphosate and phosphate onto goethite at constant pH. Both substances adsorb to the surface by forming inner-sphere complexes. A ligand exchange mechanism for this competitive adsorption is proposed. Chapter 5 presents a study of the competitive adsorption between glyphosate and phosphate onto goethite performed by adsorption isotherms, electrophoretic mobilities and XPS. The effects caused by pH and phosphate concentration were evaluated. The obtained results can be explained considering glyphosate-phosphate competition and the availability of surface sites on goethite. When many surface sites are available, adsorption of both ligands takes place rather independently. On the contrary, when there are few available surface sites, competition becomes more evident. XPS data confirm competitive adsorption. Chapter 6 presents a combined batch/ATR-FTIR kinetic study on the competitive adsorption between glyphosate and citrate onto ferrihydrite particles. Results show that both ligands compete for the same surface sites and that citrate can desorb glyphosate. Spectra-shape invariability indicates that the identity of the species involved in competition does not change during the process. Chapter 7 presents an adsorption study of metsulfuron methyl on 30 soils from semiarid pampean region of Argentina. Both, pH and organic matter content affect significantly the adsorption. The groundwater ubiquity score (GUS) evaluated for these systems indicates that this herbicide is that metsulfuron methyl can be ranked as leacher in all studied soils.
145

Método de análise de componentes dependentes para o processamento, caracterização e extração de componentes de sinais biomédicos / Dependent Component Analysis for processing, characterization and extraction of biomedical signal components.

Montesco, Carlos Alberto Estombelo 10 December 2007 (has links)
Na área de processamento de sinais biomédicos a extração de informação, baseada em um conjunto de medidas adquiridas no tempo, é considerada de suma importância. A qualidade desta informação extraída permite avaliar o funcionamento dos diversos órgãos. Objetivos: (1) propor o método de análise de componentes dependentes para auxiliar a extração de componentes de interesse, a partir de medidas multivariadas; (2) caraterizar as componentes extraídas através de representações em termos de tempo e freqüência, e espectro de potência; e, (3) aplicar o método e avaliar as componentes de interesse extraídas no contexto real MCGf, MGG e fMRI. A proposta para a extração fundamenta-se no método chamado de Análise de Componentes Dependentes ACD. As medidas a serem processadas são multivariadas a partir de sensores distribuídos, espacialmente, no corpo humano dando origem a um conjunto de dados correlacionados no tempo e/ou no espaço. Observa-se que os sinais de interesse raramente são registrados de forma isolada, e sim misturados com outros sinais superpostos, ruído e artefatos fisiológicos ou ambientais, onde a relação sinal-ruído é geralmente baixa. Nesse contexto, a estratégia a ser utilizada baseia-se na ACD, que permitirá extrair um pequeno número de fontes, de potencial interesse, com informações úteis. A estratégia ACD para extração de informação é aplicada em três importantes problemas, na área de processamento de sinais biomédicos: (1) detecção do sinal do feto em magnetocardiografia fetal (MCGf); (2) detecção da atividade de resposta elétrica do estômago em magnetogastrografia (MGG); e, (3) detecção de regiões ativas do cérebro em experimentos de imagens por ressonância magnética funcional (Functional Magnetic Resonance Imaging, fMRI). Os resultados, nos três casos estudados, mostraram que o método utilizado, como estratégia, é efetivo e computacionalmente eficiente para extração de sinais de interesse. Concluímos, baseados nas aplicações, que o método proposto é eficaz, mostrando seu potencial para futuras pesquisas clínicas. / An important goal in biomedical signal processing is the extraction of information based on a set of physiological measurements made along time. Generally, biomedical signals are electromagnetic measurements. Those measurements (usually made with multichannel equipment) are registered using spatially distributed sensors around some areas of the human body, originating a set of time and/or space correlated data. The signals of interest are rarely registered alone, being usually observed as a mixture of other spurious, noisy signals (sometimes superimposed) and environmental or physiological artifacts. More over, the signal-to-noise ratio is generally low. In many applications, a big number of sensors are available, but just a few sources are of interest and the remainder can be considered noise. For such kind of applications, it is necessary to develop trustful, robust and effective learning algorithms that allow the extraction of only a few sources potentially of interest and that hold useful information. The strategy used here for extraction of sources is applied in three important problems in biomedical signal processing: (1) detection of the fetal magnetocardiogram signal (fMCG); (2) detection of the electrical activity of the stomach in magnetogastrograms (MGG); and (3) detection of active regions of the brain in experiments in functional Magnetic Resonance Imaging (fMRI). The results, within the three cases of study, showed that the DCA method used as strategy is effective and computationally efficient on extraction of desired signals.
146

Análise da estrutura organizacional em rede e suas negociações no contexto de alianças estratégicas / Análisis de la estructura organizacional en red y sus negociaciones en contexto de alianzas estrategicas

Olivares, José Enrique Louffat 04 August 2003 (has links)
Na presente tese de doutorado procurou-se realizar uma análise focalizada no desenho e dinâmica organizacional das relações de interdependência de duas ou mais organizações. Com esse intuito, estabeleceram-se dois dimensões de análise, a saber, os condicionantes, constituídas pelos elementos estratégia, ambiente, tecnologia e cultura, e os componentes, formadas pelos elementos: departamentalização, atividades de linha/assessória, descrição das atividades, cadeia hierárquica, nível de centralização/descentralização, amplitude administrativa, comunicação e capacidade decisória. Para se ter uma visão atual de suas aplicações na prática organizacional, foi realizada uma pesquisa exploratória, do tipo qualitativo, aplicada a três grupos com perfis de redes/alianças de tipo horizontal e vertical. Comprovou-se, com a pesquisa, que existe uma tendência positiva na aceitação e aplicação dessa nova proposta, o que implica uma profunda evolução das características do desenho e da dinâmica organizacional. / En la presente tesis de doctorado se busco realizar un analisis centrado en el diseño y dinamica organizacional de las relaciones de interdependencia de dos o mas organizaciones. Con ese proposito, se establecieron dos dimensiones de analisis, a saber, los condicionantes, conformados por los elementos: estrategia, ambiente, tecnologia y cultura; y los componentes, formados por los elementos: departamentalización,actividades de linea/asesoria, descripción de actividades, cadena jerarquica, nivel de centralización/descentralización, amplitud administrativa, comunicación, capcidad decisoria.
147

Método de análise de componentes dependentes para o processamento, caracterização e extração de componentes de sinais biomédicos / Dependent Component Analysis for processing, characterization and extraction of biomedical signal components.

Carlos Alberto Estombelo Montesco 10 December 2007 (has links)
Na área de processamento de sinais biomédicos a extração de informação, baseada em um conjunto de medidas adquiridas no tempo, é considerada de suma importância. A qualidade desta informação extraída permite avaliar o funcionamento dos diversos órgãos. Objetivos: (1) propor o método de análise de componentes dependentes para auxiliar a extração de componentes de interesse, a partir de medidas multivariadas; (2) caraterizar as componentes extraídas através de representações em termos de tempo e freqüência, e espectro de potência; e, (3) aplicar o método e avaliar as componentes de interesse extraídas no contexto real MCGf, MGG e fMRI. A proposta para a extração fundamenta-se no método chamado de Análise de Componentes Dependentes ACD. As medidas a serem processadas são multivariadas a partir de sensores distribuídos, espacialmente, no corpo humano dando origem a um conjunto de dados correlacionados no tempo e/ou no espaço. Observa-se que os sinais de interesse raramente são registrados de forma isolada, e sim misturados com outros sinais superpostos, ruído e artefatos fisiológicos ou ambientais, onde a relação sinal-ruído é geralmente baixa. Nesse contexto, a estratégia a ser utilizada baseia-se na ACD, que permitirá extrair um pequeno número de fontes, de potencial interesse, com informações úteis. A estratégia ACD para extração de informação é aplicada em três importantes problemas, na área de processamento de sinais biomédicos: (1) detecção do sinal do feto em magnetocardiografia fetal (MCGf); (2) detecção da atividade de resposta elétrica do estômago em magnetogastrografia (MGG); e, (3) detecção de regiões ativas do cérebro em experimentos de imagens por ressonância magnética funcional (Functional Magnetic Resonance Imaging, fMRI). Os resultados, nos três casos estudados, mostraram que o método utilizado, como estratégia, é efetivo e computacionalmente eficiente para extração de sinais de interesse. Concluímos, baseados nas aplicações, que o método proposto é eficaz, mostrando seu potencial para futuras pesquisas clínicas. / An important goal in biomedical signal processing is the extraction of information based on a set of physiological measurements made along time. Generally, biomedical signals are electromagnetic measurements. Those measurements (usually made with multichannel equipment) are registered using spatially distributed sensors around some areas of the human body, originating a set of time and/or space correlated data. The signals of interest are rarely registered alone, being usually observed as a mixture of other spurious, noisy signals (sometimes superimposed) and environmental or physiological artifacts. More over, the signal-to-noise ratio is generally low. In many applications, a big number of sensors are available, but just a few sources are of interest and the remainder can be considered noise. For such kind of applications, it is necessary to develop trustful, robust and effective learning algorithms that allow the extraction of only a few sources potentially of interest and that hold useful information. The strategy used here for extraction of sources is applied in three important problems in biomedical signal processing: (1) detection of the fetal magnetocardiogram signal (fMCG); (2) detection of the electrical activity of the stomach in magnetogastrograms (MGG); and (3) detection of active regions of the brain in experiments in functional Magnetic Resonance Imaging (fMRI). The results, within the three cases of study, showed that the DCA method used as strategy is effective and computationally efficient on extraction of desired signals.
148

Um método de teste funcional para verificação de componentes. / A functional test method for checking components.

FARIAS, Carina Machado de. 18 September 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-09-18T16:21:29Z No. of bitstreams: 1 CARINA MACHADO DE FARIAS - DISSERTAÇÃO PPGCC 2003..pdf: 658152 bytes, checksum: 8231194d3724e72085250f16ee95a419 (MD5) / Made available in DSpace on 2018-09-18T16:21:29Z (GMT). No. of bitstreams: 1 CARINA MACHADO DE FARIAS - DISSERTAÇÃO PPGCC 2003..pdf: 658152 bytes, checksum: 8231194d3724e72085250f16ee95a419 (MD5) Previous issue date: 2003-02-27 / O interesse no desenvolvimento de software baseado em componentes tem crescido substancialmente devido à promessa de redução de custos e tempo de desenvolvimento através do reuso. A maioria das metodologias existentes tem se concentrado nas fases de análise e projeto. Entretanto, o reuso efetivo de componentes está diretamente relacionado à confiabilidade dos mesmos. O principal objetivo deste trabalho é propor um método de teste funcional aplicável a componentes de software. Já que o processo de desenvolvimento utilizado influencia significativamente a testabilidade dos sistemas, o método de teste proposto é apresentado dentro de um processo de desenvolvimento de componentes bem definido Componentes UML. Artefatos de teste são gerados a partir de especificações em UML (Unified Modelling Language), especialmente a partir dos diagramas de seqüência. Um estudo de caso foi desenvolvido para ilustrar a aplicabilidade do método / Interest in component-based software development has increased significantly due its promise to reduce development costs and time through reuse. The majority of existing methodologies has focus in the analysis and design disciplines. Never the less, effective reuse of components is closely related to their reliability. The main goal of this work is to propose a method of functional testing to verify software components. Since testability of systems is greatly influenced by the development process chosen, the proposed method is integrated with a well-defined component development process. Test artifacts are generated from UML (Unified Modelling Language) specifications, specially sequence diagrams. A case study has been developed to illustrate the applicability of the method.
149

Análise da estrutura organizacional em rede e suas negociações no contexto de alianças estratégicas / Análisis de la estructura organizacional en red y sus negociaciones en contexto de alianzas estrategicas

José Enrique Louffat Olivares 04 August 2003 (has links)
Na presente tese de doutorado procurou-se realizar uma análise focalizada no desenho e dinâmica organizacional das relações de interdependência de duas ou mais organizações. Com esse intuito, estabeleceram-se dois dimensões de análise, a saber, os condicionantes, constituídas pelos elementos estratégia, ambiente, tecnologia e cultura, e os componentes, formadas pelos elementos: departamentalização, atividades de linha/assessória, descrição das atividades, cadeia hierárquica, nível de centralização/descentralização, amplitude administrativa, comunicação e capacidade decisória. Para se ter uma visão atual de suas aplicações na prática organizacional, foi realizada uma pesquisa exploratória, do tipo qualitativo, aplicada a três grupos com perfis de redes/alianças de tipo horizontal e vertical. Comprovou-se, com a pesquisa, que existe uma tendência positiva na aceitação e aplicação dessa nova proposta, o que implica uma profunda evolução das características do desenho e da dinâmica organizacional. / En la presente tesis de doctorado se busco realizar un analisis centrado en el diseño y dinamica organizacional de las relaciones de interdependencia de dos o mas organizaciones. Con ese proposito, se establecieron dos dimensiones de analisis, a saber, los condicionantes, conformados por los elementos: estrategia, ambiente, tecnologia y cultura; y los componentes, formados por los elementos: departamentalización,actividades de linea/asesoria, descripción de actividades, cadena jerarquica, nivel de centralización/descentralización, amplitud administrativa, comunicación, capcidad decisoria.
150

Rastreamento de componentes conexas em vídeo 3D para obtenção de estruturas tridimensionais / Tracking of connected components from 3D video in order to obtain tridimensional structures

Pires, David da Silva 17 August 2007 (has links)
Este documento apresenta uma dissertação sobre o desenvolvimento de um sistema de integração de dados para geração de estruturas tridimensionais a partir de vídeo 3D. O trabalho envolve a extensão de um sistema de vídeo 3D em tempo real proposto recentemente. Esse sistema, constituído por projetor e câmera, obtém imagens de profundidade de objetos por meio da projeção de slides com um padrão de faixas coloridas. Tal procedimento permite a obtenção, em tempo real, tanto do modelo 2,5 D dos objetos quanto da textura dos mesmos, segundo uma técnica denominada luz estruturada. Os dados são capturados a uma taxa de 30 quadros por segundo e possuem alta qualidade: resoluções de 640 x 480 pixeis para a textura e de 90 x 240 pontos (em média) para a geometria. A extensão que essa dissertação propõe visa obter o modelo tridimensional dos objetos presentes em uma cena por meio do registro dos dados (textura e geometria) dos diversos quadros amostrados. Assim, o presente trabalho é um passo intermediário de um projeto maior, no qual pretende-se fazer a reconstrução dos modelos por completo, bastando para isso apenas algumas imagens obtidas a partir de diferentes pontos de observação. Tal reconstrução deverá diminuir a incidência de pontos de oclusão (bastante comuns nos resultados originais) de modo a permitir a adaptação de todo o sistema para objetos móveis e deformáveis, uma vez que, no estado atual, o sistema é robusto apenas para objetos estáticos e rígidos. Até onde pudemos averiguar, nenhuma técnica já foi aplicada com este propósito. Este texto descreve o trabalho já desenvolvido, o qual consiste em um método para detecção, rastreamento e casamento espacial de componentes conexas presentes em um vídeo 3D. A informação de imagem do vídeo (textura) é combinada com posições tridimensionais (geometria) a fim de alinhar partes de superfícies que são vistas em quadros subseqüentes. Esta é uma questão chave no vídeo 3D, a qual pode ser explorada em diversas aplicações tais como compressão, integração geométrica e reconstrução de cenas, dentre outras. A abordagem que adotamos consiste na detecção de características salientes no espaço do mundo, provendo um alinhamento de geometria mais completo. O processo de registro é feito segundo a aplicação do algoritmo ICP---Iterative Closest Point---introduzido por Besl e McKay em 1992. Resultados experimentais bem sucedidos corroborando nosso método são apresentados. / This document presents a MSc thesis focused on the development of a data integration system to generate tridimensional structures from 3D video. The work involves the extension of a recently proposed real time 3D video system. This system, composed by a video camera and a projector, obtains range images of recorded objects using slide projection of a coloured stripe pattern. This procedure allows capturing, in real time, objects´ texture and 2,5 D model, at the same time, by a technique called structured light. The data are acquired at 30 frames per second, being of high quality: the resolutions are 640 x 480 pixels and 90 x 240 points (in average), respectively. The extension that this thesis proposes aims at obtaining the tridimensional model of the objects present in a scene through data matching (texture and geometry) of various sampled frames. Thus, the current work is an intermediary step of a larger project with the intent of achieving a complete reconstruction from only a few images obtained from different viewpoints. Such reconstruction will reduce the incidence of occlusion points (very common on the original results) such that it should be possible to adapt the whole system to moving and deformable objects (In the current state, the system is robust only to static and rigid objects.). To the best of our knowledge, there is no method that has fully solved this problem. This text describes the developed work, which consists of a method to perform detection, tracking and spatial matching of connected components present in a 3D video. The video image information (texture) is combined with tridimensional sites (geometry) in order to align surface portions seen on subsequent frames. This is a key step in the 3D video that may be explored in several applications such as compression, geometric integration and scene reconstruction, to name but a few. Our approach consists of detecting salient features in both image and world spaces, for further alignment of texture and geometry. The matching process is accomplished by the application of the ICP---Iterative Closest Point---algorithm, introduced by Besl and McKay in 1992. Succesful experimental results corroborating our method are shown.

Page generated in 0.0742 seconds