• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 15
  • 15
  • 15
  • 8
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Recuperação de conversas de mensagens instantâneas realizadas em navegadores de internet / Instant messaging web-based chat extraction

Salvatori, Ronei Maia 29 February 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-11-30T14:51:01Z No. of bitstreams: 1 2012_RoneiMaiaSalvatori.pdf: 3173942 bytes, checksum: e226f98f06e8ef36c70d25a0ed99fdf2 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2012-12-05T13:06:04Z (GMT) No. of bitstreams: 1 2012_RoneiMaiaSalvatori.pdf: 3173942 bytes, checksum: e226f98f06e8ef36c70d25a0ed99fdf2 (MD5) / Made available in DSpace on 2012-12-05T13:06:04Z (GMT). No. of bitstreams: 1 2012_RoneiMaiaSalvatori.pdf: 3173942 bytes, checksum: e226f98f06e8ef36c70d25a0ed99fdf2 (MD5) / A recuperação de vestígios provenientes de programas de mensagens instantâneas a partir de discos rígidos apreendidos é uma tarefa comumente demandada para a Perícia do Departamento de Polícia Federal. No entanto, essa recuperação é limitada devido às restrições das técnicas existentes. Estas são voltadas para extração de artefatos provenientes das versões instaladas dos comunicadores, e não categorizam os artefatos voláteis deixados pelas versões web implementadas com tecnologia Ajax, que limita a geração de cache pelos navegadores de Internet. Como alternativa este trabalho demonstra que é possível recuperar artefatos referentes às listas de contatos e às conversações realizadas em ambiente web, a partir de procedimentos que dispensam análise aprofundada do protocolo de comunicação utilizado. As hipóteses são baseadas na identificação de padrões de caracteres armazenados no tráfego de rede, despejos de memória, arquivos de paginação e hibernação para criar um dicionário de palavras-chave, possibilitando buscas automáticas.O método derivou-se de testes empíricos baseados na simulação de conversas entre usuários para extrações de artefatos com auxílio de um protótipo. Foi aplicado a estudos de caso nas versões web de quatro comunicadores instantâneos: Windows Live Messenger – WLM, Gtalk, Yahoo!Messenger e Facebook chat. Foram realizadas comparações entre os dicionários criados para cada comunicador, bem como extrações de listas de contatos e conversas entre usuários, demonstrando os procedimentos definidos e confirmando as hipóteses do trabalho. Os resultados foram considerados satisfatórios, podendo a técnica ser adotada para análises forenses post-mortem de discos rígidos, ainda que a volatilidade dos dados nesse ambiente seja um fator limitante de sua eficácia. _______________________________________________________________________________________ ABSTRACT / The recovery of traces from instant messaging programs from hard drives seized is a task commonly demanded for the expertise of the Federal Police Department. However, the recovery is limited by the constraints of existing techniques. These are aimed at extraction of artifacts from the installed versions of communicators, not categorize the artifacts left by the volatile web versions implemented with Ajax technology, which limits the generation of the Internet browsers cache. This work demonstrates that it is possible to recover artifacts relating to lists of contacts and talks held in a web environment, from procedures that do not require detailed analysis of the communication protocol used. The assumptions are based on identifying character patterns stored in network traffic, memory dumps, hibernation and paging files to create a dictionary of keywords, enabling automatic searches. The method was derived from empirical tests based on simulation of conversations between users for extraction of artifacts with the help of a prototype. It was applied to case studies in the web versions of four IM: Windows Live Messenger - WLM, Gtalk, Yahoo!Messenger and Facebook chat. Comparisons between the dictionaries created for each communicator as well as extraction of lists of contacts and conversations between users, showing the procedures defined and confirmed the hypothesis of the work. The results were considered satisfactory, the technique can be adopted for post-mortem forensic analysis of hard disks, although the volatility of the data in this environment is a factor limiting its effectiveness.
2

Modelo de recuperação de dados não estruturados para sustentação à estratégia de competitividade organizacional

Cândido, Antônio Pereira January 2005 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2013-07-16T01:02:03Z (GMT). No. of bitstreams: 0 / As organizações, de modo geral, têm um volume de informações presentes em seus computadores das quais fazem pouco uso, por não conseguirem uma forma eficiente de acesso às mesmas. A dificuldade maior em fazer acesso a estes dados se dá pela característica da sua estruturação. Trata-se de dados não estruturados. Tendo presente esta questão, esta pesquisa tem por objetivo encontrar uma solução para favorecer o acesso a dados não estruturados. Para encaminhar o trabalho, busca-se aplicar uma estratégia de competitividade como fator de indexação destes dados. Através da utilização de ontologias, construiu-se um modelo que permite a estruturação destes dados, tornando-os acessíveis por meios computacionais. O resultado da pesquisa evidencia que é possível transformar dados não estruturados em semi estruturados e, a partir daí, aplicar recursos computacionais já existentes para disponibilizá los para a organização.
3

Shape from shading com projeção perspectiva e calibração de camara

Hasegawa, Julio Kiyoshi 19 August 1997 (has links)
Orientador: Clesio Luis Tozzi / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-22T18:07:43Z (GMT). No. of bitstreams: 1 Hasegawa_JulioKiyoshi_D.pdf: 6532057 bytes, checksum: 7075e9b4475be3c19b680396b830343a (MD5) Previous issue date: 1997 / Resumo: : A maioria dos algoritmos encontrados na literatura, para a reconstrução de uma superfície 3D a partir de imagens de intensidade, usando a técnica de shape from shading (SFS), utiliza o sistema de projeção ortográfico. Este fato, no caso de imagens reais, causa deformações na superfície reconstruída. Neste trabalho desenvolve-se um procedimento simultâneo de reconstrução da superfície e calibração da câmara, que utiliza as técnicas de SFS e técnicas fotogramétricas, considerando a projeção perspectiva. São utilizados modelos matemáticos explícitos (equação de shading e colinearidade) e é aplicado um processo iterativo para recuperação da informação 3D da superfície e dos parâmetros de orientação da câmara. Devido ao uso de equações não lineares no modelo a linearização por série de Taylor foi utilizada. O Método dos Mínimos Quadrados (MMQ) foi aplicado, para obter um valor único a partir de observações superabundantes. Estes procedimentos se diferenciam em relação aos citados na literatura pelo fato de se calcular simultaneamente as coordenadas tridimensionais dos pontos da superfície e os parâmetros de orientação da câmara (calibração), não sendo necessárias restrições sobre a superfície. Imagens de profundidade e de intensidade foram geradas (simuladas), onde o processo de reconstrução foi aplicado na imagem de intensidade, cujo resultado foi verificado, comparando-a com a imagem de profundidade com a finalidade de analisar a exatidão do método / Abstract: The majority of algorithms making use of the Shape from Shading technique to reconstruct a 3 D surface from its image employs the orthographic projection system which, in the case of real images, always causes deformation on the reconstructed surface. To remove this constraint a simultaneous procedure (Hybrid Model) is proposed which uses the Shape from Shading technique (SFS) combined with the photogrammetric technique and the perspective projection to reconstruct the surface and determine the camera calibration parameters. The procedure is based on an explicit mathematical model and an iterative process is adopted to solve the resulting system of equations. The Least Square Method (LSM) is adopted and the Taylor's Series Linearization technique is applied due to the nonlinearity of the model. The proposed procedure differs from those found in the literature in that it carries out the simultaneous computation of the tridimensional coordinates of both the surface points and the camera calibration parameters while employing perspective projection. In addition to that, solving the resulting system of equations does not demand any restriction on the surface, as it appens in other related procedures. The intensity image and its respective depth image were generated and the proposed model is applied on the intensity image. The results obtained are compared with the depth image to analyse the accuracy of the proposed method / Doutorado / Doutor em Engenharia Elétrica
4

Recuperação de dados governamentais : uma análise de aceitação de tecnologia no acesso a dados em planilhas eletrônicas /

Bisi, Pedro Henrique Santos. January 2019 (has links)
Orientador: Ricardo César Gonçalves Sant'Ana / Banca: Guilherme Ataíde Dias / Banca: Fernando de Assis Rodrigues / Resumo: O acesso a dados e informações governamentais vem crescendo nos últimos anos, acompanhado do aumento de iniciativas realizadas por organizações que apoiam a disponibilização de dados e informações para incentivar a transparência pública, possibilitando fomentar uma melhor relação entre Estado e Sociedade. Entre aqueles que podem acessar estes dados estão os pequenos produtores rurais que possuem papel preponderante na sociedade brasileira, sendo responsáveis pelo fornecimento de parte considerável dos alimentos que compõem a nossa mesa, que quando acessam estes dados podem influenciar em seu processo de tomadas de decisões. Diante deste cenário houve o acompanhamento no processo de evolução de Tecnologias de Informação e Comunicação para permitir e facilitar o processo de recuperação e acesso a dados, entre estas tecnologias podemos destacar as Planilhas Eletrônicas. A iniciativa do governo brasileiro por meio do Portal Brasileiro de Dados Abertos disponibiliza conjuntos de dados passiveis de serem abertos em software de manipulação e edição de planilhas eletrônicas. Assim esta pesquisa tem por objetivo analisar a aceitação de planilhas eletrônicas enquanto tecnologia no acesso a dados governamentais, em específico os dados da agricultura, extrativismo e pesca, recuperados pelo Portal Brasileiro de Dados Abertos. Adotou-se uma metodologia baseada em uma pesquisa quantitativa e qualitativa, sendo essencialmente um estudo exploratório-descritivo, em que foi utilizado a pesquisa... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Access to data and governmental information has been growing in recent years, along with the increase in the participation of public and private organizations that support the provision of data and information to encourage public transparency,.enabling relationship between state and society. Between those can access this data are the small rural producers who have prevailing role in brazilian society, accountable for supplying of a considerable part of the food that make up our table, which when they access this data can influence their process of decision- making. In front of this scenario there was monitoring in the process of evolution of information and communication technologies to allow and facilitate the process of recovery and access data between technologies we can highlight as spreadsheets . Initiative f the Brazilian do government through the Brazilian Open Data Portal provides data sets that can be opened in manipulation software and edition of electronic spreadsheets. This research aims to analyze the acceptance of technology electronic spreadsheets as technology in the access to governmental data in specific the data of agriculture, extractivism and fishing, recovered by the Brazilian Open Data Portal. Adopted whether a methodology based on a quantitative and qualitative research, being essentially an exploratory descriptive study, used bibliographical research, to explain the context surrounding the research: collection of data initiated by the delimitation of ... (Complete abstract click electronic access below) / Mestre
5

Recuperação de dados da operacionalização de programas governamentais : um estudo do Programa Nacional de Fortalecimento da Agricultura Familiar (PRONAF) /

Moreira, Fábio Mosso. January 2015 (has links)
Orientador: Ricardo César Gonçalves Sant'Ana / Banca: Silvana Aparecida Borsetti Gregorio Vidotti / Banca: Carlos Ferras Sexto / Resumo: As pesquisas que abordam as contribuições das Tecnologias da Informação e Comunicação (TIC) para a área agrícola são recentes, tanto nas questões do uso dos dispositivos por parte dos produtores rurais quanto na questão tecnológica de disseminação de informações no meio rural. O uso da Internet e da Web no processo de disponibilização de informações governamentais é crescente e traz a possibilidade para o cidadão de acompanhar ações como a execução das políticas públicas. As políticas públicas para a agricultura constituem fator preponderante no desenvolvimento social e econômico da Agricultura Familiar. A importância da disponibilização de dados sobre os programas governamentais e a necessidade de agricultores familiares na obtenção de informações sobre as políticas públicas justificam o objetivo deste estudo, que consiste na análise do processo de recuperação de dados da operacionalização do Programa Nacional de Fortalecimento da Agricultura Familiar (PRONAF) por meio de sítios oficiais das instituições financeiras públicas envolvidas na execução do programa. A opção pelo PRONAF deve-se ao fato deste ser o principal programa de apoio à agricultura familiar no Brasil, com o maior montante de recursos financeiros orçados. A metodologia utilizada foi baseada em pesquisa qualitativa, sendo essencialmente um estudo exploratório-descritivo, na qual realizou-se um levantamento teórico a fim de obter informações para caracterizar a agricultura familiar, conceituar o tema políticas públicas, descrever o PRONAF e seu arranjo operacional, e levantar fatores envolvidos na disponibilização e acesso a dados governamentais na Web. A coleta de dados foi realizada por meio do método de observação direta nos portais oficiais de instituições financeiras públicas, a fim ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Research that assess the contributions of Information and Communication Technologies (ICT) for agriculture are recent, both in the issues of use of devices by farmers as in the technological issue of dissemination of information in rural areas. The use of Internet and Web in process that provide government information is growing and brings the possibility for the citizens to monitor actions such as the implementation of public policies. Public policies for agriculture are a major factor in social and economic development of family farming. The importance to provide data about government programs and the need for farmers obtain information about public policies highlights the aims of this study, which is the analysis of data recovery process in the operacionalization of Programa Nacional de Fortalecimento da Agricultura Familiar (PRONAF) through official websites of public financial institutions involved in implementing of the program. The choice by PRONAF was due to the fact that this is the main program of support for family farming in Brazil, with the largest amount of budgeted financial resources. The methodology used was a qualitative research, being essentially an exploratory-descriptive study, in which was realized a theoretical survey to obtain information to characterize the family farm, conceptualize the theme of public policy, describe the PRONAF and its operating arrangement, and to obtain factors involved in the provision and access to government data on the Web. The colect of data was performed using the method of direct observation on the official websites of public financial institutions to identify information resources containing data queries of the operationalization of PRONAF.The process of data retrieval through the informational resources identified was analyzed having with basis the aims which permeates ... (Complete abstract click electronic access below) / Mestre
6

Uma técnica de recuperação adaptativa de obras em bibliotecas digitais baseada no perfil do usuário

Penedo, Sérgio Murilo January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T01:41:00Z (GMT). No. of bitstreams: 1 221373.pdf: 3640722 bytes, checksum: 70ee32b689c63958f0f78e1493538779 (MD5) / As bibliotecas digitais oferecem um modo eficiente de busca ao acervo graças à indexação de seu conteúdo. Apesar disto, caso o acervo seja grande, mecanismos tradicionais de busca podem não ser eficientes em recuperar informação mais pertinente às necessidades do usuário. O conceito de Hiperdocumento Adaptativo pode ser adicionado às bibliotecas digitais de modo a considerar o interesse do usuário na busca de informações, representando as suas necessidades de informação através de uma estrutura bem definida, denominada de perfil. Esta Dissertação tem como proposta aplicar os conceitos de hiperdocumento adaptativo às bibliotecas digitais, para que o resultado das consultas sejam apresentados de maneira organizada levando em conta o perfil do usuário da biblioteca, visando facilitar a identificação dos documentos relevantes no conjunto de documentos da Biblioteca. É realizado o agrupamento dos documentos recuperados, atendendo os critérios de busca em níveis de relevância e em cada nível os documentos são ordenados segundo um critério. Tanto o critério de agrupamento quanto o de ordenação são definidos baseados no perfil do usuário. Como base para a implementação da proposta é utilizada a Biblioteca Digital de Literatura Brasileira e Catarinense (LBC), desenvolvida no contexto do projeto CNPq SIDIE (Sistema de Disponibilização de Informações para o Ensino).
7

Normalisation of imprecise temporal expressions extracted from text

Tissot, Hegler Correa January 2016 (has links)
Orientador : Prof. Dr. Marcos Didonet Del Fabro / Co-Orientador : Prof. Dr. Angus Roberts / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 05/04/2016 / Inclui referências : f. 95-105 / Resumo: Técnicas e sistemas de extração de informações são capazes de lidar com a crescente quantidade de dados não estruturados disponíveis hoje em dia. A informação temporal está entre os diferentes tipos de informações que podem ser extraídos a partir de tais fontes de dados não estruturados, como documentos de texto. Informações temporais descrevem as mudanças que acontecem através da ocorrência de eventos, e fornecem uma maneira de gravar, ordenar e medir a duração de tais ocorrências. A impossibilidade de identificar e extrair informação temporal a partir de documentos textuais faz com que seja difícil entender como os eventos são organizados em ordem cronológica. Além disso, em muitas situações, o significado das expressões temporais é impreciso, e não pode ser descrito com precisão, o que leva a erros de interpretação. As soluções existentes proporcionam formas alternativas de representar expressões temporais imprecisas. Elas são, entretanto, específicas e difíceis de generalizar. Além disso, a análise de dados temporais pode ser particularmente ineficiente na presença de erros ortográficos. As abordagens existentes usam métodos de similaridade para procurar palavras válidas dentro de um texto. No entanto, elas não são suficientes para processos erros de ortografia de uma forma eficiente. Nesta tese é apresentada uma metodologia para analisar e normalizar das expressões temporais imprecisas, em que, após a coleta e pré-processamento de dados sobre a forma como as pessoas interpretam descrições vagas de tempo no texto, diferentes técnicas são comparadas a fim de criar e selecionar o modelo de normalização mais apropriada para diferentes tipos de expressões imprecisas. Também são comparados um sistema baseado em regras e uma abordagem de aprendizagem de máquina na tentativa de identificar expressões temporais em texto, e é analisado o processo de produção de padrões de anotação, identificando possíveis fontes de problemas, dando algumas recomendações para serem consideradas no futuro esforços de anotação manual. Finalmente, é proposto um mapa fonético e é avaliado como a codificação de informação fonética poderia ser usado a fim de auxiliar os métodos de busca de similaridade e melhorar a qualidade da informação extraída. / Abstract: Information Extraction systems and techniques are able to deal with the increasing amount of unstructured data available nowadays. Time is amongst the different kinds of information that may be extracted from such unstructured data sources, including text documents. Time describes changes which happen through the occurrence of events, and provides a way to record, order, and measure the duration of such occurrences. The inability to identify and extract temporal information from text makes it difficult to understand how the events are organized in a chronological order. Moreover, in many situations, the meaning of temporal expressions is imprecise, and cannot be accurately described, leading to interpretation errors. Existing solutions provide alternative ways of representing imprecise temporal expressions, though they are specific and hard to generalise. Furthermore, the analysis of temporal data may be particularly inefficient in the presence of spelling errors. Existing approaches use string similarity methods to search for valid words within a text. However, they are not rich enough to processes misspellings in an efficient way. In this thesis, we present a methodology to analyse and normalise of imprecise temporal expressions, in which, after collecting and pre-processing data on how people interpret vague descriptions of time in text, we compare different techniques in order to create and select the most appropriate normalisation model for different kinds of imprecise expressions. We also compare how a rule-based system and a machine learning approach perform on trying to identify temporal expression from text, and we analyse the process of producing gold standards, identifying possible sources of issues, giving some recommendations to be considered in future manual annotation efforts. Finally, we propose a phonetic map and evaluate how encoding phonetic information could be used in order to assist similarity search methods and improve information extraction quality.
8

Utilização de árvores de decisão para aprimorar a classificação de fragmentos / Using decision trees to improve fragment classification

Oya, Juliano Kazuki Matsuzaki 13 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-02-15T16:12:49Z No. of bitstreams: 1 2016_JulianoKazukiMatsuzakiOya.pdf: 22080440 bytes, checksum: 26e6cf59fb6ec7c66e3b87eecb43103f (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-03-23T22:29:48Z (GMT) No. of bitstreams: 1 2016_JulianoKazukiMatsuzakiOya.pdf: 22080440 bytes, checksum: 26e6cf59fb6ec7c66e3b87eecb43103f (MD5) / Made available in DSpace on 2017-03-23T22:29:48Z (GMT). No. of bitstreams: 1 2016_JulianoKazukiMatsuzakiOya.pdf: 22080440 bytes, checksum: 26e6cf59fb6ec7c66e3b87eecb43103f (MD5) / A classificação de fragmentos de arquivos é uma parte essencial do processo de recuperação de dados em computação forense. Métodos que dependem de assinaturas de arquivo ou de estruturas do sistema de arquivos são amplamente utilizados, mas outros métodos são necessários na ausência de tais informações. Para esse propósito, este trabalho descreve um método flexível para aprimorar a classificação de fragmentos e a recuperação de arquivos por meio da aplicação de árvores de decisão. Arquivos de evidências de casos forenses reais foram utilizados para gerar um conjunto de fragmentos de testes e de validação. Para cada fragmento, 46 atributos foram extraídos e utilizados no treinamento das árvores de decisão. Em média, os modelos resultantes classificaram corretamente 98,78% dos fragmentos em tarefas de classificação binários e de 86,05% em tarefas de classificação multinomiais. Os resultados mostram que as árvores de decisão podem ser aplicadas com sucesso para o problema de classificação fragmentos e que apresentam bons resultados quando comparadas com outros métodos apresentados na literatura. Por conseguinte, o método proposto pode ser utilizado como um complemento aos métodos usuais de recuperação de arquivo, possibilitando um processo de recuperação de dados mais minucioso. / The classification of file fragments is an essential part of the data recovery process in computer forensics. Methods that rely on file signatures or file system structures are widely employed, but other methods are required in the absence of such information. For this purpose, this paper describes a flexible method to improve fragment classification and recovery using decision trees. Evidence files from real forensic cases were used to generate the training and testing fragments. For each fragment, 46 features were extracted and used in the training of the decision trees. On average, the resulting models correctly classified 98.78% of the fragments in binary classification tasks and 86.05% in multinomial classification tasks. These results show that decision trees can be successfully applied to the fragment classification problem and they yield good results when compared to other methods presented in the literature. Consequently, the proposed method can be used as a complement to the usual file recovery methods, allowing for a more thorough data recovery process.
9

Algoritmos de Shape from Shading e aplicação para casos com posições de fonte de luz e observador coincidentes

Forster, Carlos Henrique Quartucci 22 November 1999 (has links)
Orientador: Clesio Luis Tozzi / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-07-26T08:26:31Z (GMT). No. of bitstreams: 1 Forster_CarlosHenriqueQuartucci_M.pdf: 6981769 bytes, checksum: 4b4b1788304245f7640171b9ec86ded0 (MD5) Previous issue date: 1999 / Resumo: Este trabalho trata o problema de reconstrução tridimensional a partir de um sistema monocular de captura de imagens. Especificamente, o problema de Shape from Shading, reconstrução tridimensional a partir de imagens de sombreamento, é tratado na forma de um revisão bibliográfica e de construção de algoritmos para se resolver um caso específico onde as posições da fonte de luz e da câmara coincidem e estão próximas do objeto. Dois métodos de Shape from Shading são implementados, um deles é baseado em otimização e o outro é baseado em expansão de curvas. A fim de aplicar a técnica em imagens de endoscopia, alguns problemas práticos são solucionados, como a correção da distorção da imagem e a remoção do componente especular de reflexão. A remoção da reflexão especular se faz através de um filtro baseado no modelo dicromático de reflexão. Considerando-se a recuperação da forma, resultados satisfatórios são obtidos, tanto para imagem sintéticas quanto para imagem de objetos reais / Abstract: The subject of this work is the solution of the 3d reconstruction problem from a single shading image captured by a monocular system. More specifically, the Shape from Shading problem is addressed. A bibliographic review and the implementation of algorithms to solve the specific case in which the camera and light source positions are coincident and close to the object are presented. Two of the Shape from Shading methds described were implemented, one based on optimization and the other based on curve expansion. In order to test the application of the technique in endoscope images, some practical problems were addressed: the correction of image distortion and the removal of the specular component of reflection, using the dichromatic reflection model. Considering the shape reconstruction, the obtained results for synthetic real objects images were all satisfactory / Mestrado / Automação / Mestre em Engenharia Elétrica
10

Busca e recuperação de modelos CAD 3D baseadas em forma e funcionalidade.

Giuliano Neves da Silva Mendonça 06 October 2008 (has links)
A busca e recuperação de modelos tridimensionais de engenharia baseada em sua forma é um importante recurso para alavancar a reutilização de soluções de projeto pré-existentes no desenvolvimento de novos produtos. A reutilização de dados diminui o tempo de chegada ao mercado, reduz custos e minimiza os riscos, ao adotar conceitos já testados e com maior grau de maturidade. A maioria das ferramentas existentes para comparação de modelos 3D destina-se a uso geral em bases de dados multimídia. Elas apresentam resultados fracos no domínio de engenharia mecânica, quando aplicadas em bases de modelos gerados por aplicação de projeto auxiliado por computador (CAD). Esta tese propõe uma solução para melhorar o desempenho da busca 3D para esses casos. Nossa abordagem leva em conta, além da forma, também os objetivos de projeto, análise de engenharia e processo de fabricação para estimar similaridade entre modelos. Esses dados, obtidos a partir da estrutura construtiva do modelo, permitem a construção de um vetor de características com maior valor semântico e um poder discriminante superior ao da pura comparação geométrica e topológica. A validade da proposta é verificada com a construção de um arcabouço de testes que implementa técnicas de aprendizagem não supervisionadas para particionar conjuntos de modelos CAD em famílias de peças com características comuns e intercambiáveis. A qualidade do particionamento é avaliada por indicadores quantitativos e qualitativos.

Page generated in 0.0713 seconds