• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 218
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 231
  • 87
  • 85
  • 48
  • 42
  • 39
  • 28
  • 25
  • 24
  • 23
  • 22
  • 21
  • 21
  • 21
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Indexação automática por meio da extração e seleção de sintagmas nominais em textos em língua portuguesa

Silva, Tiago José da 28 March 2014 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-10T17:22:32Z No. of bitstreams: 2 DISSERTAÇÃO Tiago José da Silva.pdf: 3122636 bytes, checksum: 4141cd54437a53496b7f98822722032e (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-10T17:22:33Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Tiago José da Silva.pdf: 3122636 bytes, checksum: 4141cd54437a53496b7f98822722032e (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-03-28 / Objetiva fazer um levantamento do estado da arte da indexação automática por sintagmas nominais para textos em português. Para tanto, identifica e sintetiza os fundamentos teóricos, metodologias e ferramentas da indexação automática por meio da extração e seleção de sintagmas nominais em textos em língua portuguesa, levando em conta publicações científicas nas áreas da Ciência da Informação, Ciência da Computação, Terminologia e Linguística. Discute as metodologias para indexação automática através de sintagmas nominais em textos em língua portuguesa, no intuito de apontar critérios para extração e seleção de sintagmas que possam ser usados como descritores documentais. Avalia e compara ferramentas de extração automática de sintagmas nominais como o parser PALAVRAS, OGMA e LX-Parser, usando como referência a extração manual de sintagmas nominais. Percebe que os trabalhos produzidos depois do ano de 2000 e que trabalham com a extração automática de termos fazem referências ao parser PALAVRAS, tendo-o como um bom etiquetador e analisador sintático. Na comparação entre as referidas ferramentas automáticas, percebe-se que apesar do LX-Parser ter tido melhor desempenho em alguns aspectos como extrair um maior número de SNs do que o PALAVRAS, esse ainda consegue ser melhor pelo número menor de erros e a possibilidade de submeter um texto completo à análise do programa, ação que o LX-Parser não permite realizar. Quanto ao levantamento do estado da arte, pode-se dizer que as pesquisas ainda não atingiram um grau de amadurecimento elevado, pois os resultados apresentados pela literatura não alcançam uma taxa de precisão elevada para todos os tipos de corpus. Conclui que os resultados das pesquisas que trabalham com a extração automática de sintagmas nominais devem ser comparados entre si para que se possam detectar os problemas existentes quanto às metodologias e às ferramentas de extração destes sintagmas nominais em língua portuguesa. Tendo, dessa maneira, as ferramentas e as metodologias melhoradas para que efetivamente possam ser aplicadas em sistemas de recuperação de informação, fazendo a seleção de sintagmas nominais que possam ser usados como descritores documentais no intuito de satisfazer as necessidades informacionais do usuário. Sugere, então, algumas possíveis soluções para os problemas de identificação de sintagmas nominais enfrentados pelas ferramentas automáticas.
142

Divida mobiliaria publica e financeirização da riqueza : Uma analise das singularidades do endividamento mobiliario interno no Brasil / Public securities debt and financialization of wealth : an analysis of singularities of the domestic securities debt in Brazil

Fernandes, Orlando Assunção 10 May 2009 (has links)
Orientador: Maria Alejandra Caporale Madi / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Economia / Made available in DSpace on 2018-08-14T17:48:07Z (GMT). No. of bitstreams: 1 Fernandes_OrlandoAssuncao_D.pdf: 3387731 bytes, checksum: a8d69dbc678fb068ef4402a9f6f4cc61 (MD5) Previous issue date: 2009 / Resumo: Esta tese analisa as singularidades do endividamento público mobiliário interno no Brasil, no período que vai de 1964 a 2006. Partindo-se de um perspectiva histórica, procura-se evidenciar como os papéis emitidos pelo Estado brasileiro passaram a ocupar lugar de destaque entre os ativos financeiros disponíveis e se transformaram em um poderoso instrumento do processo de valorização financeira do capital. Argumenta-se que qualquer análise sobre o processo de dominância financeira do capitalismo, especificamente no caso brasileiro, deve passar por uma correta compreensão do processo de evolução e gestão da dívida pública mobiliária interna, dada a sua importância, não só em termos do tamanho e da participação relativa no estoque total de ativos financeiros disponíveis, mas também por seu poder de influência sobre os demais ativos financeiros, ao servir de referência na determinação da estrutura de prazos e custos do mercado de capitais. Dessa forma, objetiva-se demonstrar que, diante da tendência do capital em se reproduzir cada vez mais pela esfera financeira, os títulos de dívida pública no Brasil, com o passar dos anos, transformaram-se numa relevante manifestação desse processo, o qual ganhou contornos ainda mais acentuados, dadas as singularidades da dívida, em particular, no que tange ao uso de papéis indexados. Tais singularidades foram resultado de amplas reformas institucionais empreendidas, ao longo dos anos, com o intuito de ampliar o grau de liquidez, a rentabilidade e a segurança oferecidos aos agentes tomadores, satisfazendo aos seus interesses rentistas, ao transformar a dívida mobiliária interna brasileira em um importante instrumento do processo de valorização financeira da riqueza da economia. / Abstract: This thesis analyzes the singularities of the Brazilian domestic public securities debt in the period 1964 to 2006. From a historical perspective, we tried to highlight how the securities issued by the Brazilian government gained prominence among the financial assets available and have become a powerful instrument of the financial valorization of capital. It is argued that any analysis of the process of financial domination of capitalism, specifically in the Brazilian case, must include a correct understanding of the process of evolution and management of domestic securitized debt, given its importance, not only in terms of size and the relative share in total stock of financial assets available, but also because of its influence on other financial assets, as a reference in determining the term structure and prices in capital markets. Thus, the objective is to demonstrate that, in light of the tendency of capital to increasingly reproduce itself in the financial sphere, the public debt in Brazil have over the years become an important manifestation of this process, which took even wider dimensions in face of the singularities of the debt, in particular with respect to the use of indexed securities. Such singularities resulted from broad institutional reforms undertaken over the years, with the aim of increasing the degree of liquidity, profitability and safety offered to security holders so as to satisfy the interests of rentist capitalists, turning the Brazilian domestic public securities debt into an important instrument in the process of financial valorization of wealth of the economy. / Doutorado / Teoria Economica / Doutor em Ciências Econômicas
143

Aplicação de técnicas de aprendizagem de máquina na geração de índices para sistemas de busca

Carvalho, André Luiz Costa 26 November 2012 (has links)
Submitted by Lúcia Brandão (lucia.elaine@live.com) on 2015-07-27T17:43:06Z No. of bitstreams: 1 Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-28T18:37:39Z (GMT) No. of bitstreams: 1 Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-07-28T18:47:09Z (GMT) No. of bitstreams: 1 Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) / Made available in DSpace on 2015-07-28T18:47:09Z (GMT). No. of bitstreams: 1 Tese - André Luiz da Costa Carvalho.pdf: 766182 bytes, checksum: 6eecaa1fef5e14867610e7e4c889e91b (MD5) Previous issue date: 2012-11-26 / CNPq - Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico / Search engines station between main Ways to Get INFORMATION on the Internet, receiving Million daily queries. This volume Query topping generates a considerable burden In Query processors of search machines, that should NOT JUST worry with a quality fi nal ANSWER received by users, but Also with a latency This consultation, JA What A delay excessive on MAY rhythm harm a RESPONSE Experience Users ITS. In the Last Year HAS A considerable effort been Research in Technical Application Machine Learning During Query Processing, aiming mainly um increase in the fi nal quality of YOUR answers. This thesis studied the Technical Application machine learning During the generation of indexes, rather than apply them to processing Queries, therefore opening a new front for the Technical Application of Learning Machine in search systems. Within the study, we propose two techniques for the Application Machine learning in the Document Indexing in search of machines with Showing THAT That there Space paragraph enhance an indexing with the use of these techniques. The advantage of this approach is that as THAT Processing And Done Before Consultations Made to be looking machine, Regardless of how costly this computationally BE Process, THIS IS NOT re fl directly etirá In Query Processing Time. We propose here Two techniques: LePrEF, One Evidence Fusion Technique Indexing Time Who Has As a search Purpose Machines Performance Improvement During Processing Consultations, THROUGH indexes Generation que CODI fi cam a Better importance of each term Each Document, AND A phrasal TERMS detection technique (phrases OS), with the objective of improve the quality of the responses obtained FOR THEM. The Technical LePrEF Performs a Relevance of Evidence Sources Fusion pace in Indexing using for both machine learning. The need for evidence of fusion not Drift Query Processing What do FACT search Systems in General Several use Evidence Sources To compute answers YOUR Such As the text of web pages, the text of IN pointers received each page, pointing Analysis Methods As the PageRank, Among many others. However, the recent increase Evidence Sources lev Also one New custodian processing. This is, coupled with the constant growth in the Content Quantity / Máquinas de busca estão entre as principais formas de se obter informações na internet,recebendo milhões de consultas diárias. Este volume avantajado de consultas gera uma considerável carga nos processadores de consultas das máquinas de busca, que devem não apenas se preocupar com a qualidade da resposta final recebida pelos usuários, mas também com a latência desta consulta ,já que uma demora excessiva no tempo de resposta pode prejudicar a experiência de seus usuários. Nos últimos anos tem havido um considerável esforço de pesquisa na aplicação de técnicas de aprendizado de máquina durante o processamento de consultas, objetivando-se principalmente um aumento na qualidade final de suas respostas. Nesta tese estudamos a aplicação de técnicas de aprendizagem de máquina durante a geração de índices, ao invés de aplicá-las ao processamento de consultas, abrindo portanto uma nova frente para a aplicação de técnicas de aprendizagem de máquina em sistemas de busca. Dentro do estudo, propomos duas técnicas para a aplicação de aprendizado de máquina na indexação de documentos em máquinas de busca, mostrando com isso que há espaço para melhorar a indexação com o uso dessas técnicas. A vantagem de tal abordagem é que, como esse processamento é feito antes das consultas serem feitas à maquina de busca, independente de quão custoso computacionalmente seja este processo, isto não refletirá diretamente no tempo de processamento de consultas. Propomos aqui duas técnicas: LePrEF, uma técnica de fusão de evidências em tempo de indexação que tem como objetivo a melhoria do desempenho de máquinas de busca durante o processamento de consultas, por meio da geração de índices que codificam melhor a importância de cada termo em cada documento, e uma técnica de detecção de termos frasais (os sintagmas), com o objetivo de melhorar a qualidade das respostas obtidas por elas. A técnica LePrEF realiza a fusão de fontes de evidência de relevância em tempo de indexação utilizando para tanto aprendizagem de máquina. A necessidade da fusão de evidências no processamento de consultas deriva do fato de que sistemas de busca em geral utilizam diversas fontes de evidência para computar suas respostas, tais como o texto das páginas web, o texto dos apontadores recebidos por cada página, métodos de análise de apontadores como o PageRank, dentre muitos outros. Porém, o acréscimo de novas fontes de evidência leva também a novos custos de processamento. Isto, aliado ao constante crescimento na quantidade de conteúdo
144

Indexação multimídia escalável e busca por similaridade em alta dimensionalidade / Scalable multimedia indexing and similarity search in high dimensionality

Akune, Fernando Cesar, 1976- 08 January 2011 (has links)
Orientador: Ricardo da Silva Torres / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-19T04:44:52Z (GMT). No. of bitstreams: 1 Akune_FernandoCesar_M.pdf: 1241917 bytes, checksum: b220cb9e6aac3f8136585dedd9cd0da9 (MD5) Previous issue date: 2011 / Resumo: A disseminação de grandes coleções de arquivos de imagens, músicas e vídeos tem aumentado a demanda por métodos de indexação e sistemas de recuperação de informações multimídia. No caso de imagens, os sistemas de busca mais promissores são os sistemas baseados no conteúdo, que ao invés de usarem descrições textuais, utilizam vetores de características, que são representações de propriedades visuais, como cor, textura e forma. O emparelhamento dos vetores de características da imagem de consulta e das imagens de uma base de dados é implementado através da busca por similaridade. A sua forma mais comum é a busca pelos k vizinhos mais próximos, ou seja, encontrar os k vetores mais próximos ao vetor da consulta. Em grandes bases de imagens, um índice é indispensável para acelerar essas consultas. O problema é que os vetores de características podem ter muitas dimensões, o que afeta gravemente o desempenho dos métodos de indexação. Acima de 10 dimensões, geralmente é preciso recorrer aos métodos aproximados, sacrificando a eficácia em troca da rapidez. Dentre as diversas soluções propostas, existe uma abordagem baseada em curvas fractais chamadas curvas de preenchimento do espaço. Essas curvas permitem mapear pontos de um espaço multidimensional em uma única dimensão, de maneira que os pontos próximos na curva correspondam a pontos próximos no espaço. O grande problema dessa alternativa é a existência de regiões de descontinuidade nas curvas, pontos próximos dessas regiões não são mapeados próximos na curva. A principal contribuição deste trabalho é um método de indexação de vetores de características de alta dimensionalidade, que utiliza uma curva de preenchimento do espaço e múltiplos representantes para os dados. Esse método, chamado MONORAIL, gera os representantes explorando as propriedades geométricas da curva. Isso resulta em um ganho na eficácia da busca por similaridade, quando comparado com o método de referência. Outra contribuição não trivial deste trabalho é o rigor experimental usado nas comparações: os experimentos foram cuidadosamente projetados para garantir resultados estatisticamente significativos. A escalabilidade do MONORAIL é testada com três bases de dados de tamanhos diferentes, a maior delas com mais de 130 milhões de vetores / Abstract: The spread of large collections of images, videos and music has increased the demand for indexing methods and multimedia information retrieval systems. For images, the most promising search engines are content-based, which instead of using textual annotations, use feature vectors to represent visual properties such as color, texture, and shape. The matching of feature vectors of query image and database images is implemented by similarity search. Its most common form is the k nearest neighbors search, which aims to find the k closest vectors to the query vector. In large image databases, an index structure is essential to speed up those queries. The problem is that the feature vectors may have many dimensions, which seriously affects the performance of indexing methods. For more than 10 dimensions, it is often necessary to use approximate methods to trade-off effectiveness for speed. Among the several solutions proposed, there is an approach based on fractal curves known as space-filling curves. Those curves allow the mapping of a multidimensional space onto a single dimension, so that points near on the curve correspond to points near on the space. The great problem with that alternative is the existence of discontinuity regions on the curves, where points near on those regions are not mapped near on the curve. The main contribution of this dissertation is an indexing method for high-dimensional feature vectors, using a single space-filling curve and multiple surrogates for each data point. That method, called MONORAIL, generates surrogates by exploiting the geometric properties of the curve. The result is a gain in terms of effectiveness of similarity search, when compared to the baseline method. Another non-trivial contribution of this work is the rigorous experimental design used for the comparisons. The experiments were carefully designed to ensure statistically sound results. The scalability of the MONORAIL is tested with three databases of different sizes, the largest one with more than 130 million vectors / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
145

Detecção rápida de legendas em vídeos utilizando o ritmo visual / Fast video caption detection based on visual rhythm

Valio, Felipe Braunger, 1984- 19 August 2018 (has links)
Orientadores: Neucimar Jerônimo Leite, Hélio Pedrini / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-19T05:52:55Z (GMT). No. of bitstreams: 1 Valio_FelipeBraunger_M.pdf: 3505580 bytes, checksum: 3b20a046a5822011c617729904457d95 (MD5) Previous issue date: 2011 / Resumo: Detecção de textos em imagens é um problema que vem sendo estudado a várias décadas. Existem muitos trabalhos que estendem os métodos existentes para uso em análise de vídeos, entretanto, poucos deles criam ou adaptam abordagens que consideram características inerentes dos vídeos, como as informações temporais. Um problema particular dos vídeos, que será o foco deste trabalho, é o de detecção de legendas. Uma abordagem rápida para localizar quadros de vídeos que contenham legendas é proposta baseada em uma estrutura de dados especial denominada ritmo visual. O método é robusto à detecção de legendas com respeito ao alfabeto utilizado, ao estilo de fontes, à intensidade de cores e à orientação das legendas. Vários conjuntos de testes foram utilizados em nosso experimentos para demonstrar a efetividade do método / Abstract: Detection of text in images is a problem that has been studied for several decades. There are many works that extend the existing methods for use in video analysis, however, few of them create or adapt approaches that consider the inherent characteristics of video, such as temporal information. A particular problem of the videos, which will be the focus of this work, is the detection of subtitles. A fast method for locating video frames containing captions is proposed based on a special data structure called visual rhythm. The method is robust to the detection of legends with respect to the used alphabet, font style, color intensity and subtitle orientation. Several datasets were used in our experiments to demonstrate the effectiveness of the method / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
146

Efeitos da inflação nas demonstrações financeiras: uma contribuição ao estudo de correção monetária

Bruni, Antonio Agenor January 1983 (has links)
Submitted by Cristiane Oliveira (cristiane.oliveira@fgv.br) on 2013-05-13T17:56:43Z No. of bitstreams: 1 1198401120.pdf: 5998944 bytes, checksum: ab4ccb19103c7741e8f1977a1827ee7d (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2013-05-13T18:14:30Z (GMT) No. of bitstreams: 1 1198401120.pdf: 5998944 bytes, checksum: ab4ccb19103c7741e8f1977a1827ee7d (MD5) / Made available in DSpace on 2013-05-13T18:30:32Z (GMT). No. of bitstreams: 1 1198401120.pdf: 5998944 bytes, checksum: ab4ccb19103c7741e8f1977a1827ee7d (MD5) Previous issue date: 1983 / Trata do problema de se refletir, nas demonstrações contábeis, também conhecidas como demonstrações financeiras, os efeitos das variações de preços, e, no caso brasileiro, principalmente o efeito da inflação. O trabalho aborda o fenômeno econômico das variações de preços e a teoria econômica aplicável a tais fenômenos, bem como, os métodos de correção monetária disponíveis, como a contabilidade a nível geral de preços, e a contabilidade a preços de reposição. Enfoca ainda o Instituto da Correção Monetária no Brasil, tece críticas ao modelo vigente, e apresenta propostas e sugestões com vistas ao aperfeiçoamento de tal modelo.
147

Aplicações de mapas auto-organizaveis em mineração de dados e recuperação de informação

Zuchini, Marcio Henrique 03 August 2018 (has links)
Orientador: Fernando Jose Von Zuben / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T19:18:01Z (GMT). No. of bitstreams: 1 Zuchini_MarcioHenrique_M.pdf: 7031573 bytes, checksum: 80d43be5a516ff4dc680c86f4f78ac7d (MD5) Previous issue date: 2003 / Mestrado
148

Suporte à recuperação de imagens médicas baseadas em conteúdo através de Histogramas Métricos.

Josiane Maria Bueno 05 February 2002 (has links)
Os grandes centros médicos e hospitais de todo o mundo têm procurado integrar as informações de seus pacientes incluindo os exames de imagens efetuados (tomografia computadorizada, tomografia por ressonância magnética, ultrasson, medicina nuclear, etc.). Um sistema que integra as imagens junto às informações tradicionais é chamado de Sistema de Arquivamento e Comunicação de Imagens (Picture Archive and Communication System - PACS). Os sistemas PACS comerciais associam as imagens de exames às informações de pacientes através de chaves de consultas textuais e numéricas, não suportando consultas baseadas no conteúdo pictórico das imagens. Entretanto, muitas vezes o médico gostaria de recuperar as imagens armazenadas que fossem semelhantes (similares) a uma determinada imagem de consulta. Por exemplo, seja a consulta: "encontre as 10 imagens mais semelhantes à imagem Raio-X-tórax do Jõao da Silva". Ao responder a consultas desse tipo, o sistema permite que o médico relembre casos ocorridos anteriormente. Além disso, o conhecimento já gerado de exames e tratamentos anteriores pode ser recuperado mais rapidamente do que utilizando apenas a memória humana ou um sistema não automático de recuperação de informações. Um sistema com a capacidade de recuperar imagens utilizando o seu conteúdo pictórico é uma ferramenta valiosa para o auxílio ao diagnóstico médico. Esta tese apresenta a arquitetura de um PACS atualmente em desenvolvimento. Este sistema está sendo denominado mini-PACS. Tal sistema necessita da integração de três sistemas, a saber: - Um Sistema de Processamento de Imagens (SPI), o qual é responsável pela leitura e pré-processamento das imagens que são recebidas de diferentes dispositivos e possuem diferentes formatos. O SPI extrai as características relevantes das imagens, as quais serão utilizadas para a sua indexação e recuperação por conteúdo. - Um Sistema de Gerenciamento de Bases de Dados e Imagens (SGBDI), que permite a armazenagem e a recuperação de imagens baseada em seu conteúdo. O SGBDI utiliza uma estrutura métrica, a Slim-tree, que indexa as imagens através das características extraídas pelo SPI e possibilita responder consultas por similaridade. - Um Servidor de Web (SW), que disponibiliza o acesso às informações através da internet. A construção do Servidor de Web encontra-se fora do escopo do desenvolvimento desta tese. Porém, testes iniciais sobre a transferência e comunicação de imagens utilizando um servidor e aplicativos Java foram desenvolvidos para avaliar o comportamento do sistema. Entre as principais contribuições deste trabalho encontra-se um novo método de extração de características de imagens chamado histograma métrico. Os histogramas métricos permitem comparar imagens de diferentes tamanhos e mapeadas em faixas de quantização diferentes (se a alteração de brilho for linear). O tempo de resposta às consultas por similaridade utilizando histogramas métricos é, em média, 5 vezes menor do que o tempo de resposta utilizando histogramas tradicionais. Para permitir a indexação das imagens utilizando a Slim-tree foi necessário desenvolver uma nova função de distância métrica. Tal função de distância utiliza a diferença entre as áreas das curvas do histograma métrico. A construção da árvore de indexação utilizando os histogramas métricos chega a ser 10 vezes mais rápida do que com os histogramas tradicionais. As inovações e aperfeiçoamentos oriundos deste trabalho estão sendo integrados ao mini-PACS. Este sistema vem sendo desenvolvido de forma conjunta entre o Grupo de Bases de Dados e Imagens (GDBI) do Instituto de Ciências Matemáticas e de Computação da USP e o Centro de Ciências de Imagens e Física Médica (CCIFM) da Faculdade de Medicina de Ribeirão Preto da USP.
149

\"Análise documentária de fotografias: um referencial de leitura de imagens fotográficas para fins documentários\" / Protographic documentary analysis

Míriam Paula Manini 06 May 2002 (has links)
A preocupação central deste trabalho é a Análise Documentária que se faz de imagens fotográficas, estejam elas depositadas em acervos institucionais, agências ou bancos de imagens. Ainda que existam métodos e técnicas associados a este tipo de análise e mesmo que se pergunte quem está na fotografia, o que foi registrado, onde, quando e como, muitas vezes há falhas ou lacunas nas respostas. Por seu conteúdo histórico e valor informacional, o documento fotográfico requer cuidados especiais e um olhar especializado. A descrição e a extração de unidades de indexação (descritores ou palavras-chave) de uma fotografia demandam regras e métodos específicos. A metodologia proposta direciona a análise para o caráter indicial do documento fotográfico, bem como para a função e a importância do referente na determinação da indicialidade. Propomos esta ferramenta enquanto auxiliar do processo de análise da informação fotográfica pois podemos analisar a fotografia em termos de sua recepção, já que o tratamento e a recuperação da informação imagética são questões igualmente relevantes. Outrossim, por não perder de vista o referencial teórico da Documentação, apresentamos aproximações relativas ao conteúdo genérico, ao conteúdo específico e ao significado das imagens fotográficas. Nesta perspectiva, de maneira mais conclusiva, observamos qual a forma utilizada por estes conteúdos e este significado para se manifestarem: a Dimensão Expressiva da imagem fotográfica. Em parte reservada à recuperação da informação visual e à recepção de fotografias, apresentamos o cruzamento entre alguns critérios que o usuário pode lançar mão para escolher uma entre várias imagens segundo o uso que irá fazer dela. Além da análise do referencial teórico referente ao tema proposto, um outro procedimento que se adotou foi a observação da atual situação da Análise Documentária de Imagens Fotográficas em alguns acervos brasileiros e de como se comporta a nossa proposta dentro de alguns exemplos criados. / This work focuses on Content Analysis applied to photographic images belonging to different repositories such as archives or image databases. Although there are many fine tools to help with the description and organization of visual documents such as photographs, and even though one asks who is in the photo, what was pictured, where, when and how that image is represented, the person who is processing the information still finds gaps on answering the representativeness of the image content. Photographic documents are important sources of cultural and historical information and for this reason it requires specialized management. Creating structural metadata on visual documents demands the use of standards and specific practices and, in some cases, authority lists. This methodology here presented leads the analysis toward the indice of the photographic document as so as to the importance and function of the referring on building the indice character. We propose this methodology to give guidance on the interpretability of the meaning of a photographic document in order to find the user information needs. Considering the theoretical matters of the Documentation Science we present approaches related to the generic content, to the specific content and to the meaning of the images. From this perspective and aiming a more conclusive approach, we examine how the content and the meaning of a photographic image manifests itself: its Expressive Dimension. Concerning the user information needs and the accuracy of the information retrieved, there is a cross-reference of some criteria that can be used to choose among several images according to their use. In addition to the proposed theme theoretical reference analysis, another procedure adopted was to observe the current situation of the Content Analysis of Photographic Images in some Brazilian archives, as well as the behavior of our proposal into some examples that were created.
150

\"Análise documentária de fotografias: um referencial de leitura de imagens fotográficas para fins documentários\" / Protographic documentary analysis

Manini, Míriam Paula 06 May 2002 (has links)
A preocupação central deste trabalho é a Análise Documentária que se faz de imagens fotográficas, estejam elas depositadas em acervos institucionais, agências ou bancos de imagens. Ainda que existam métodos e técnicas associados a este tipo de análise e mesmo que se pergunte quem está na fotografia, o que foi registrado, onde, quando e como, muitas vezes há falhas ou lacunas nas respostas. Por seu conteúdo histórico e valor informacional, o documento fotográfico requer cuidados especiais e um olhar especializado. A descrição e a extração de unidades de indexação (descritores ou palavras-chave) de uma fotografia demandam regras e métodos específicos. A metodologia proposta direciona a análise para o caráter indicial do documento fotográfico, bem como para a função e a importância do referente na determinação da indicialidade. Propomos esta ferramenta enquanto auxiliar do processo de análise da informação fotográfica pois podemos analisar a fotografia em termos de sua recepção, já que o tratamento e a recuperação da informação imagética são questões igualmente relevantes. Outrossim, por não perder de vista o referencial teórico da Documentação, apresentamos aproximações relativas ao conteúdo genérico, ao conteúdo específico e ao significado das imagens fotográficas. Nesta perspectiva, de maneira mais conclusiva, observamos qual a forma utilizada por estes conteúdos e este significado para se manifestarem: a Dimensão Expressiva da imagem fotográfica. Em parte reservada à recuperação da informação visual e à recepção de fotografias, apresentamos o cruzamento entre alguns critérios que o usuário pode lançar mão para escolher uma entre várias imagens segundo o uso que irá fazer dela. Além da análise do referencial teórico referente ao tema proposto, um outro procedimento que se adotou foi a observação da atual situação da Análise Documentária de Imagens Fotográficas em alguns acervos brasileiros e de como se comporta a nossa proposta dentro de alguns exemplos criados. / This work focuses on Content Analysis applied to photographic images belonging to different repositories such as archives or image databases. Although there are many fine tools to help with the description and organization of visual documents such as photographs, and even though one asks who is in the photo, what was pictured, where, when and how that image is represented, the person who is processing the information still finds gaps on answering the representativeness of the image content. Photographic documents are important sources of cultural and historical information and for this reason it requires specialized management. Creating structural metadata on visual documents demands the use of standards and specific practices and, in some cases, authority lists. This methodology here presented leads the analysis toward the indice of the photographic document as so as to the importance and function of the referring on building the indice character. We propose this methodology to give guidance on the interpretability of the meaning of a photographic document in order to find the user information needs. Considering the theoretical matters of the Documentation Science we present approaches related to the generic content, to the specific content and to the meaning of the images. From this perspective and aiming a more conclusive approach, we examine how the content and the meaning of a photographic image manifests itself: its Expressive Dimension. Concerning the user information needs and the accuracy of the information retrieved, there is a cross-reference of some criteria that can be used to choose among several images according to their use. In addition to the proposed theme theoretical reference analysis, another procedure adopted was to observe the current situation of the Content Analysis of Photographic Images in some Brazilian archives, as well as the behavior of our proposal into some examples that were created.

Page generated in 0.0564 seconds