31 |
[pt] SEGMENTAÇÃO DE VÍDEO NO DOMÍNIO COMPRIMIDO BASEADA NA HISTÓRIA DA COMPACTAÇÃO / [en] VIDEO SEGMENTATION IN THE COMPRESSED DOMAIN BASED ON THE COMPRESSION HISTORYCRISTINA NADER VASCONCELOS 26 December 2005 (has links)
[pt] Este trabalho apresenta uma proposta de solução do problema de deteção de tomada de câmera de vídeos MPEG-1 e MPEG-2. A abordagem proposta está baseada na aplicação de diversas heurísticas para eliminação de quadros semelhantes, de forma a extrair um conjunto de quadros que representam os cortes entre tomadas de câmera vizinhas. Essas heurísticas analisam informações no domínio compactado, obtidas diretamente do fluxo de dados codificado dos vídeos, como forma de eliminar o processo de descompressão MPEG e diminuir o volume de dados manipulados durante a análise. A observação dos valores assumidos pelas diversas métricas utilizadas demonstrou a
existência de padrões falsos de corte relacionados à história do processo de codificação do vídeo. Por
esta razões, as análises das informações codificadas para detecção das tomadas de câmera procuram identificar padrões estabelecidos pelo processo de codificação, considerados assinaturas dos codificadores. Para distinção entre quadros com características de corte, de quadros com características influenciadas pelo codificador, são propostas filtragens para suavizar a influência dessas assinaturas nos valores obtidos pelas métricas de caracterização de similaridade. / [en] This works presents a proposal for finding shot cuts in
MPEG-1 and
MPEG-2 videos. The proposed approach is based on
heuristics for eliminating
similar frames and thus extracting a set of frames
positioned at cuts points. These
heuristics analyze the compressed data, retrieved from
MPEG video streams,
without any decompression, thus saving time and space
during the shot finding
process. The existence of false cut patterns is noticed by
studying the data
returned by the chosen metrics. In face of such false
positives (related to choices
made during the history of the video encoding process),
the analysis of the
compressed data tries to identify patterns in the encoded
stream, considered as
compressor signatures. To distinguish between cut frames
and frames
characterized by the encoding process, some filters are
proposed in order to
alleviate the compressor influence on the similarity
metrics results.
|
32 |
[pt] DISTRIBUIÇÃO ELETRÔNICA NA HOTELARIA: DESENVOLVIMENTO DE SERVIÇOS PARA A INTERNET / [en] ELECTRONIC DISTRIBUTION IN THE HOTEL INDUSTRY: SERVICE DEVELOPMENT FOR INTERNETLEONARDO PIMENTA DE MELLO 27 December 2005 (has links)
[pt] O propósito deste trabalho foi analisar as características
relevantes de
um sistema de distribuição eletrônica para hotéis usando
diretrizes baseadas no
mercado e explorando variantes para diferentes segmentos
de mercado. Neste
estudo, foram entrevistados 116 indivíduos, usuários de
Internet. Os
entrevistados responderam um questionário aplicado pela
Internet. Este
questionário subsidiou a composição do serviço, utilizando
o método de análise
conjunta. Posteriormente, os respondentes foram
segmentados, a partir de suas
utilidades, utilizando a análise de clusters. Os
entrevistados também avaliaram
afirmativas que buscavam corroborar os resultados obtidos
nas análises e
levantar informações adicionais. Na segmentação também
foram utilizados
dados demográficos e psicográficos dos respondentes. Os
resultados revelaram
os atributos relevantes para a composição do serviço e
forneceram subsídios
para a segmentação do serviço para diferentes mercados. / [en] The propose of this work was to analyze the optimal
combination of
attributes for an electronic distribution system for
hotels. The study was based on
consumer´s interviews and variations for different market
segments were
explored. In this study, 116 individuals had been
interviewed and the
questionnaire was applied by the Internet. The
questionnaire subsidized the
composition of the service using the method of Conjoint
Analysis. The utilities
obtained in this first part were used to segment the
respondents using Clusters
Analysis. The respondents had also evaluated some
affirmations with the
objective to corroborate the previous results and to
obtain additional information.
Demographics and psychographics data had also been used in
the segmentation
part. The results had showed the optimal combination of
attributes for the
composition of the service and allowed the segmentation of
service for different
markets.
|
33 |
[pt] CALIBRAÇÃO DE CÂMERA USANDO PROJEÇÃO FRONTAL-PARALELA E COLINEARIDADE DOS PONTOS DE CONTROLE / [en] CAMERA CALIBRATION USING FRONTO PARALLEL PROJECTION AND COLLINEARITY OF CONTROL POINTSSASHA NICOLAS DA ROCHA PINHEIRO 17 November 2016 (has links)
[pt] Imprescindível para quaisquer aplicações de visão computacional ou
realidade aumentada, a calibração de câmera é o processo no qual se obtém
os parâmetros intrínsecos e extrínsecos da câmera, tais como distância
focal, ponto principal e valores que mensuram a distorção ótica da lente.
Atualmente o método mais utilizado para calibrar uma câmera envolve
o uso de imagens de um padrão planar em diferentes perspectivas, a
partir das quais se extrai pontos de controle para montar um sistema de
equações lineares cuja solução representa os parâmetros da câmera, que
são otimizados com base no erro de reprojeção 2D. Neste trabalho, foi
escolhido o padrão de calibração aneliforme por oferecer maior precisão na
detecção dos pontos de controle. Ao aplicarmos técnicas como transformação
frontal-paralela, refinamento iterativo dos pontos de controle e segmentação
adaptativa de elipses, nossa abordagem apresentou melhoria no resultado
do processo de calibração. Além disso, propomos estender o modelo de
otimização ao redefinir a função objetivo, considerando não somente o erro
de reprojeção 2D, mas também o erro de colinearidade 2D. / [en] Crucial for any computer vision or augmented reality application, the
camera calibration is the process in which one gets the intrinsics and the
extrinsics parameters of a camera, such as focal length, principal point
and distortions values. Nowadays, the most used method to deploy the
calibration comprises the use of images of a planar pattern in different
perspectives, in order to extract control points to set up a system of linear
equations whose solution represents the camera parameters, followed by
an optimization based on the 2D reprojection error. In this work, the
ring calibration pattern was chosen because it offers higher accuracy on
the detection of control points. Upon application of techniques such as
fronto-parallel transformation, iterative refinement of the control points and
adaptative segmentation of ellipses, our approach has reached improvements
in the result of the calibration process. Furthermore, we proposed extend
the optimization model by modifying the objective function, regarding not
only the 2D reprojection error but also the 2D collinearity error.
|
34 |
[pt] BUSCA POR ARQUITETURA NEURAL COM INSPIRAÇÃO QUÂNTICA APLICADA A SEGMENTAÇÃO SEMÂNTICA / [en] QUANTUM-INSPIRED NEURAL ARCHITECTURE SEARCH APPLIED TO SEMANTIC SEGMENTATIONGUILHERME BALDO CARLOS 14 July 2023 (has links)
[pt] Redes neurais profundas são responsáveis pelo grande progresso em diversas tarefas perceptuais, especialmente nos campos da visão computacional,reconhecimento de fala e processamento de linguagem natural. Estes resultados produziram uma mudança de paradigma nas técnicas de reconhecimentode padrões, deslocando a demanda do design de extratores de característicaspara o design de arquiteturas de redes neurais. No entanto, o design de novas arquiteturas de redes neurais profundas é bastante demandanteem termos de tempo e depende fortemente da intuição e conhecimento de especialistas,além de se basear em um processo de tentativa e erro. Neste contexto, a idea de automatizar o design de arquiteturas de redes neurais profundas tem ganhado popularidade, estabelecendo o campo da busca por arquiteturas neurais(NAS - Neural Architecture Search). Para resolver o problema de NAS, autores propuseram diversas abordagens envolvendo o espaço de buscas, a estratégia de buscas e técnicas para mitigar o consumo de recursos destes algoritmos. O Q-NAS (Quantum-inspired Neural Architecture Search) é uma abordagem proposta para endereçar o problema de NAS utilizando um algoritmo evolucionário com inspiração quântica como estratégia de buscas. Este método foi aplicado de forma bem sucedida em classificação de imagens, superando resultados de arquiteturas de design manual nos conjuntos de dados CIFAR-10 e CIFAR-100 além de uma aplicação de mundo real na área da sísmica. Motivados por este sucesso, propõe-se nesta Dissertação o SegQNAS (Quantum-inspired Neural Architecture Search applied to Semantic Segmentation), uma adaptação do Q-NAS para a tarefa de segmentação semântica. Diversos experimentos foram realizados com objetivo de verificar a aplicabilidade do SegQNAS em dois conjuntos de dados do desafio Medical Segmentation Decathlon. O SegQNAS foi capaz de alcançar um coeficiente de similaridade dice de 0.9583 no conjunto de dados de baço, superando os resultados de arquiteturas tradicionais como U-Net e ResU-Net e atingindo resultados comparáveis a outros trabalhos que aplicaram NAS a este conjunto de dados, mas encontrando arquiteturas com muito menos parãmetros. No conjunto de dados de próstata, o SegQNAS alcançou um coeficiente de similaridade dice de 0.6887 superando a U-Net, ResU-Net e o trabalho na área de NAS que utilizamos como comparação. / [en] Deep neural networks are responsible for great progress in performance
for several perceptual tasks, especially in the fields of computer vision, speech
recognition, and natural language processing. These results produced a paradigm shift in pattern recognition techniques, shifting the demand from feature
extractor design to neural architecture design. However, designing novel deep
neural network architectures is very time-consuming and heavily relies on experts intuition, knowledge, and a trial and error process. In that context, the
idea of automating the architecture design of deep neural networks has gained
popularity, establishing the field of neural architecture search (NAS). To tackle the problem of NAS, authors have proposed several approaches regarding
the search space definition, algorithms for the search strategy, and techniques
to mitigate the resource consumption of those algorithms. Q-NAS (Quantum-inspired Neural Architecture Search) is one proposed approach to address the
NAS problem using a quantum-inspired evolutionary algorithm as the search
strategy. That method has been successfully applied to image classification,
outperforming handcrafted models on the CIFAR-10 and CIFAR-100 datasets
and also on a real-world seismic application. Motivated by this success, we
propose SegQNAS (Quantum-inspired Neural Architecture Search applied to
Semantic Segmentation), which is an adaptation of Q-NAS applied to semantic
segmentation. We carried out several experiments to verify the applicability
of SegQNAS on two datasets from the Medical Segmentation Decathlon challenge. SegQNAS was able to achieve a 0.9583 dice similarity coefficient on the
spleen dataset, outperforming traditional architectures like U-Net and ResU-Net and comparable results with a similar NAS work from the literature but
with fewer parameters network. On the prostate dataset, SegQNAS achieved
a 0.6887 dice similarity coefficient, also outperforming U-Net, ResU-Net, and
outperforming a similar NAS work from the literature.
|
35 |
[en] AUTOMATIC SEGMENTATION OF BREAKOUTS IN IMAGE LOGS WITH DEEP LEARNING / [pt] SEGMENTAÇÃO AUTOMÁTICA DE BREAKOUTS EM PERFIS DE IMAGEM COM APRENDIZADO PROFUNDOGABRIELLE BRANDEMBURG DOS ANJOS 02 May 2023 (has links)
[pt] Breakouts são zonas colapsadas nas paredes de poços causadas por falhas
de compressão. A identificação desses artefatos é fundamental para estimar
a estabilidade das perfurações e para obter a orientação e magnitude da
tensão horizontal máxima presente na formação rochosa. Tradicionalmente,
os intérpretes caracterizam os breakouts manualmente em perfis de imagem, o
que pode ser considerado uma tarefa muito demorada e trabalhosa por conta
do tamanho massivo dos dados. Outros aspectos que dificultam a interpretação
estão associados à complexidade das estruturas e a presença de diversos
artefatos ruidosos nos dados de perfil. Sendo assim, métodos tradicionais de
processamento de imagem tornam-se ineficientes para solucionar essa tarefa de
detecção. Nos últimos anos, soluções baseadas em aprendizado profundo tem se
tornado cada vez mais promissoras para problemas de visão computacional, tais
como, detecção e segmentação de objetos em imagens. O presente trabalho tem
como objetivo a classificação pixel a pixel das regiões de breakouts em dados de
perfil de imagem. Para isso foi empregado a rede neural convolucional DC-UNet
de forma supervisionada. Essa arquitetura é uma variação do modelo clássico
U-Net, a qual é uma rede consagrada na segmentação de dados médicos. A
metodologia proposta atingiu uma média de 72.3por cento de F1-Score e, em alguns
casos, os resultados qualitativos mostraram-se melhores que a interpretação
de referência. Após avaliação dos resultados junto a especialistas da área,
o método pode ser considerado promissor na caracterização e segmentação
automática de estruturas em perfis de imagem de poços. / [en] Breakouts are collapsed zones on wellbore walls caused by compressive
failure. Their identification is fundamental for estimating the borehole s stability and obtaining the direction and magnitude of the maximum horizontal
stress in the rock formation. Traditionally, professional interpreters identify
and characterize breakouts manually in image logs, which can be considered a
very laborious and time-consuming task due to the massive size of the wellbore
data. Other aspects that make the interpretation difficult are the complexity
of the structures of interest and several noisy artifacts in the image log data.
Therefore, more than traditional image processing methods are required to
solve this detection task. In recent years, solutions based on deep learning
have become increasingly promising for computer vision problems, such as
object detection and image segmentation. This work explores using a convolutional neural network to create a pixel-by-pixel classification of the breakout
regions in the image log data. The architecture model used in this work for the
supervised training was the DC-UNet. This architecture is a variation of the
classical U-Net, an acknowledged network for medical image segmentation. The
proposed method reached an average F-Score of 72.3 percent and qualitative results
with some prediction cases even better than ground truth. After evaluating the
results, the work can be considered promising for automatically characterizing
and segmenting borehole structures in well image logs.
|
36 |
[pt] ESTRATÉGIAS PARA OTIMIZAR PROCESSOS DE ANOTAÇÃO E GERAÇÃO DE DATASETS DE SEGMENTAÇÃO SEMÂNTICA EM IMAGENS DE MAMOGRAFIA / [en] STRATEGIES TO OPTIMIZE ANNOTATION PROCESSES AND GENERATION OF SEMANTIC SEGMENTATION DATASETS IN MAMMOGRAPHY IMAGESBRUNO YUSUKE KITABAYASHI 17 November 2022 (has links)
[pt] Com o avanço recente do uso de aprendizagem profunda supervisionada
(supervised deep learning) em aplicações no ramo da visão computacional, a
indústria e a comunidade acadêmica vêm evidenciando que uma das principais
dificuldades para o sucesso destas aplicações é a falta de datasets com a
suficiente quantidade de dados anotados. Nesse sentido aponta-se a necessidade
de alavancar grandes quantidades de dados rotulados para que estes modelos
inteligentes possam solucionar problemas pertinentes ao seu contexto para
atingir os resultados desejados. O uso de técnicas para gerar dados anotados
de maneira mais eficiente está sendo cada vez mais explorado, juntamente com
técnicas para o apoio à geração dos datasets que servem de insumos para o
treinamento dos modelos de inteligência artificial. Este trabalho tem como
propósito propor estratégias para otimizar processos de anotação e geração
de datasets de segmentação semântica. Dentre as abordagens utilizadas neste
trabalho destacamos o Interactive Segmentation e Active Learning. A primeira,
tenta melhorar o processo de anotação de dados, tornando-o mais eficiente e
eficaz do ponto de vista do anotador ou especialista responsável pela rotulagem
dos dados com uso de um modelo de segmentação semântica que tenta imitar
as anotações feitas pelo anotador. A segunda, consiste em uma abordagem que
permite consolidar um modelo deep learning utilizando um critério inteligente,
visando a seleção de dados não anotados mais informativos para o treinamento
do modelo a partir de uma função de aquisição que se baseia na estimação de
incerteza da rede para realizar a filtragem desses dados. Para aplicar e validar
os resultados de ambas as técnicas, o trabalho os incorpora em um caso de
uso relacionado em imagens de mamografia para segmentação de estruturas
anatômicas. / [en] With the recent advancement of the use of supervised deep learning in
applications in the field of computer vision, the industry and the academic
community have been showing that one of the main difficulties for the success
of these applications is the lack of datasets with a sufficient amount of
annotated data. In this sense, there is a need to leverage large amounts of
labeled data so that these intelligent models can solve problems relevant to
their context to achieve the desired results. The use of techniques to generate
annotated data more efficiently is being increasingly explored, together with
techniques to support the generation of datasets that serve as inputs for the
training of artificial intelligence models. This work aims to propose strategies
to optimize annotation processes and generation of semantic segmentation
datasets. Among the approaches used in this work, we highlight Interactive
Segmentation and Active Learning. The first one tries to improve the data
annotation process, making it more efficient and effective from the point of
view of the annotator or specialist responsible for labeling the data using a
semantic segmentation model that tries to imitate the annotations made by
the annotator. The second consists of an approach that allows consolidating
a deep learning model using an intelligent criterion, aiming at the selection of
more informative unannotated data for training the model from an acquisition
function that is based on the uncertainty estimation of the network to filter
these data. To apply and validate the results of both techniques, the work
incorporates them in a use case in mammography images for segmentation of
anatomical structures.
|
37 |
[pt] APRENDIZADO PROFUNDO APLICADO À SEGMENTAÇÃO DE TEXTO / [en] DEEP LEARNING APPLIED TO TEXT CHUNKINGMIGUEL MENDES DE BRITO 15 May 2019 (has links)
[pt] O Processamento de Linguagem natural é uma área de pesquisa que explora como computadores podem entender e manipular textos em linguagem natural. Dentre as tarefas mais conhecidas em PLN está a de rotular sequências de texto. O problema de segmentação de texto em sintagmas é um dos problemas que pode ser abordado como rotulagem de sequências. Para isto, classificamos quais palavras pertencem a um sintagma, onde cada sintagma representa um grupo disjunto de palavras sintaticamente correlacionadas. Este tipo de segmentação possui importantes aplicações em tarefas mais complexas de processamento de linguagem natural, como análise de dependências, tradução automática, anotação de papéis semânticos, identificação de orações e outras. O objetivo deste trabalho é apresentar uma arquitetura de rede neural profunda para o problema de segmentação textual em sintagmas para a língua portuguesa. O corpus usado nos experimentos é o Bosque, do projeto Floresta Sintá(c)tica. Baseado em trabalhos recentes na área, nossa abordagem supera o estado-da-arte para o português ao alcançar um F(beta)=1 de 90,51, que corresponde a um aumento de 2,56 em comparação com o trabalho anterior. Além disso, como forma de comprovar a qualidade do segmentador, usamos os rótulos obtidos pelo nosso sistema como um dos atributos de entrada para a tarefa de análise de dependências. Esses atributos melhoraram a acurácia do analisador em 0,87. / [en] Natural Language Processing is a research field that explores how computers can understand and manipulate natural language texts. Sequence tagging is amongst the most well-known tasks in NLP. Text Chunking is one of the problems that can be approached as a sequence tagging problem. Thus, we classify which words belong to a chunk, where each chunk represents a disjoint group of syntactically correlated words. This type of chunking has important applications in more complex tasks of natural language processing, such as dependency parsing, machine translation, semantic role labeling, clause identification and much more. The goal of this work is to present a deep neural network archtecture for the Portuguese text chunking problem. The corpus used in the experiments is the Bosque, from the Floresta Sintá(c)tica project. Based on recent work in the field, our approach surpass the state-of-the-art for Portuguese by achieving a F(beta)=1 of 90.51, which corresponds to an increase of 2.56 in comparison with the previous work. In addition, in order to attest the chunker effectiveness we use the tags obtained by our system as feature for the depedency parsing task. These features improved the accuracy of the parser by 0.87.
|
38 |
[en] DEVELOPMENT OF SERVICES IN EDUCATION: AN APPLICATION OF CONJOINT ANALYSIS TO MASTER IN BUSINESS ADMINISTRATION PROGRAMS. / [pt] DESENVOLVIMENTO DE SERVIÇOS NA ÁREA DE EDUCAÇÃO: UMA APLICAÇÃO DE ANÁLISE CONJUNTA NOS CURSOS DE MESTRADO EM ADMINISTRAÇÃO DE EMPRESASLEONARDO PEREIRA RODRIGUES DOS SANTOS 12 November 2003 (has links)
[pt] O propósito deste trabalho é analisar as características
relevantes dos cursos de mestrado em administração e em que
grau elas são avaliadas por seus alunos e ex-alunos, com o
objetivo de fornecer subsídios para as instituições
acadêmicas desenvolverem ou aprimorarem tais cursos.
Nesta pesquisa, aplicou-se a teoria de análise conjunta, a
fim de se apontar o conjunto de características
consideradas relevantes pelos estudantes de cursos de
mestrado em administração de empresas. O desenvolvimento da
dissertação foi composto de duas etapas: escolha dos
atributos e níveis a serem avaliados pelos respondentes e
análise dessa avaliação. Para escolher o conjunto de
atributos e níveis a serem julgados, foram analisadas
as informações existentes na literatura e conduzido um
grupo de foco. Em seguida, foi escolhido o conjunto de
estímulos a ser submetido aos estudantes de mestrado,
desenvolvido com base no projeto ortogonal calculado
pelo software estatístico SPSS. Realizou-se, então, a
coleta de dados por meio de questionários, os quais
foram entregues pessoalmente aos entrevistados ou enviados,
em alguns casos, via correio eletrônico.
Na última etapa, analisaram-se, com o auxílio do software
SPSS, as importâncias relativas dos atributos e utilidades
dos níveis propostos na pesquisa de campo, o que propiciou
que o objetivo geral de se identificarem as características
relevantes para conceito de um curso de mestrado fosse
alcançado. / [en] The purpose of this work is to identify the main features
of the Master in Business Administration programs and how
these programs are evaluated by students and former
students, aiming at helping academic institutions develop or
improve their Master degree courses in the area. In this
research, the conjoint analysis method was used to
determine the set of features considered relevant by Master
in Business Administration students. The thesis was
developed in two stages: choosing the attributes and levels
to be evaluated by respondents and analyzing such
evaluation. The attributes and levels to be assessed were
chosen only after the existing information was analyzed
and a focus group was conducted. The set of stimulis to be
given to the Master in Business Administration students was
then chosen based on the orthogonal project calculated by
the statistical software SPSS. The next stage involved data
collection using questionnaires, which were personally
delivered to the respondents or, in some cases, sent by e-
mail. Finally, the statistical software SPSS was used to
analyze the relative importance of the attributes and the
partial utilities of the levels proposed in the field
research, achieving the general goal of identifying the
relevant features for the concept of a Master´s degree
course.
|
39 |
[en] PRODUCT DEVELOPMENT TO CREDIT CARDS INDUSTRY: A CONJOINT ANALYSIS APPLICATION / [pt] DESENVOLVIMENTO DE PRODUTOS PARA A INDÚSTRIA DE CARTÃO DE CRÉDITO: UMA APLICAÇÃO DE ANÁLISE CONJUNTAANDRE LUIZ ROIZMAN 06 October 2003 (has links)
[pt] O desenvolvimento de produtos e a correta distribuição aos
segmentos de mercado são fatores fundamentais no processo
de elaboração da estratégia de marketing das empresas a fim
de proporcionar uma vantagem competitiva. Para isso, é
essencial o perfeito entendimento das necessidades e
desejos dos consumidores. Nessa dissertação, aplica-se a
teoria de análise conjunta, com o objetivo de apontar o
conjunto de características consideradas desejáveis pelos
consumidores para a aquisição de cartões de crédito. O
desenvolvimento do trabalho é composto de duas etapas:
escolha dos atributos a serem avaliados pelos respondentes
e análise dessa avaliação. Para escolher o conjunto de
atributos a serem julgados foram realizadas entrevistas em
profundidade e grupo de foco. A formação desse conjunto de
estímulos foi desenvolvida utilizando-se o software
SPSS 11.0 versão Windows. Em seguida, realizou-se a coleta
de dados por meio de questionários, os quais foram enviados
por correio eletrônico, sendo que alguns foram entregues
pessoalmente. Por fim, também com o auxílio do software SPSS
11.0 versão Windows, o estudo atingiu seu objetivo,
identificando o conceito de produto considerado mais
adequado, fruto da combinação de estímulos que gerou maior
nível de utilidade. / [en] The new product development and correct market segmentation
are fundamental to define marketing strategy in order to
provide a competitive advantage. To do this, the perfect
understanding of customer needs is essential, too. In this
research, the conjoint analysis theory is used with the
objective of showing the group of characteristics
understood as desirable by consumers to buy credit cards.
This work is composed of two main basic steps: the choice
of the attributes to be evaluated by the respondents and
the analysis of this evaluation. The group of stimuli to be
evaluated was chosen based on in-depth interviews and
one focus group. The group of stimuli was developed using
SPSS 11.0 software for Windows. Data collection was
implemented with questionnaires sent by email. Some of them
were handled personally. In the last step, also using the
SPSS 11.0 software for Windows, this study reached its
objective, identifying the concept of product considered
the most adequate, as a result of the stimuli combination,
which generated the highest utility level.
|
40 |
[en] POPULATION DISTRIBUTION MAPPING THROUGH THE DETECTION OF BUILDING AREAS IN GOOGLE EARTH IMAGES OF HETEROGENEOUS REGIONS USING DEEP LEARNING / [pt] MAPEAMENTO DA DISTRIBUIÇÃO POPULACIONAL ATRAVÉS DA DETECÇÃO DE ÁREAS EDIFICADAS EM IMAGENS DE REGIÕES HETEROGÊNEAS DO GOOGLE EARTH USANDO DEEP LEARNINGCASSIO FREITAS PEREIRA DE ALMEIDA 08 February 2018 (has links)
[pt] Informações precisas sobre a distribuição da população são reconhecidamente importantes. A fonte de informação mais completa sobre a população é o censo, cujos os dados são disponibilizados de forma
agregada em setores censitários. Esses setores são unidades operacionais de tamanho e formas irregulares, que dificulta a análise espacial dos dados associados. Assim, a mudança de setores censitários para um conjunto de células regulares com estimativas adequadas facilitaria a análise. Uma metodologia a ser utilizada para essa mudança poderia ser baseada na classificação de imagens de sensoriamento remoto para a identificação de domicílios, que é a base das pesquisas envolvendo a população. A detecção de áreas edificadas é uma tarefa complexa devido a grande variabilidade de características de construção e de imagens. Os métodos usuais são complexos e muito dependentes de especialistas. Os processos automáticos dependem de grandes bases de imagens para treinamento e são sensíveis à variação de qualidade de imagens e características das construções e de ambiente. Nesta tese propomos a utilização de um método automatizado para detecção de edificações em imagens Google Earth que mostrou bons
resultados utilizando um conjunto de imagens relativamente pequeno e com grande variabilidade, superando as limitações dos processos existentes. Este resultado foi obtido com uma aplicação prática. Foi construído um conjunto de imagens com anotação de áreas construídas para 12 regiões do Brasil. Estas imagens, além de diferentes na qualidade, apresentam grande variabilidade nas características das edificações e no ambiente geográfico. Uma prova de conceito será feita na utilização da classificação de área construída nos métodos dasimétrico para a estimação de população em gride. Ela mostrou um resultado promissor quando comparado com o método usual, possibilitando a melhoria da qualidade das estimativas. / [en] The importance of precise information about the population distribution is widely acknowledged. The census is considered the most reliable and complete source of this information, and its data are delivered
in an aggregated form in sectors. These sectors are operational units with irregular shapes, which hinder the spatial analysis of the data. Thus, the transformation of sectors onto a regular grid would facilitate such analysis. A methodology to achieve this transformation could be based on remote sensing image classification to identify building where the population lives. The building detection is considered a complex task since there is a great variability of building characteristics and on the images quality themselves. The majority of methods are complex and very specialist dependent. The automatic methods require a large annotated dataset for training and they are sensitive to the image quality, to the building characteristics, and to the environment. In this thesis, we propose an automatic method for building detection based on a deep learning architecture that uses a relative small dataset with a large variability. The proposed method shows good results when compared to the state of the art. An annotated dataset has been built that covers 12 cities distributed in different regions of Brazil. Such images not only have different qualities, but also shows a large variability on the building characteristics and geographic environments. A very important application of this method is the use of the building area classification in the dasimetric methods for the population estimation into grid. The concept proof in this application showed a promising result when compared to the usual method allowing the improvement of the quality of the estimates.
|
Page generated in 0.0535 seconds