• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 110
  • 8
  • 5
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 124
  • 57
  • 31
  • 30
  • 29
  • 29
  • 29
  • 28
  • 24
  • 24
  • 23
  • 22
  • 22
  • 21
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

T?cnica de rastreamento e persegui??o de alvo utilizando o algoritmo Haar cascade aplicada a rob?s terrestres com restri??es de movimento

Pereira, Rafael Cardoso 21 June 2017 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-08-01T15:43:01Z No. of bitstreams: 1 RafaelCardosoPereira_DISSERT.pdf: 1817897 bytes, checksum: 903100b393275d014c5095608b4e8e81 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-08-09T13:54:55Z (GMT) No. of bitstreams: 1 RafaelCardosoPereira_DISSERT.pdf: 1817897 bytes, checksum: 903100b393275d014c5095608b4e8e81 (MD5) / Made available in DSpace on 2017-08-09T13:54:55Z (GMT). No. of bitstreams: 1 RafaelCardosoPereira_DISSERT.pdf: 1817897 bytes, checksum: 903100b393275d014c5095608b4e8e81 (MD5) Previous issue date: 2017-06-21 / A habilidade de seguir ou de se mover acompanhando uma pessoa ou um objeto especificado, capaz de se deslocar, ? uma per?cia necess?ria em diversos agentes aut?nomos. Tais agentes s?o amplamente utilizados para realizar v?rias tarefas presentes no cotidiano, podendo ser aplicados tanto em tarefas corriqueiras, como em carrinhos de supermercado ou limpeza de ambientes, quanto ?s tarefas de mais alto risco, como em grandes ind?strias ou carros aut?nomos. A ideia apresentada aqui ? a de desenvolver um m?todo de rastreamento e persegui??o de alvo aplic?vel ? rob?s m?veis terrestres com rodas que possuem restri??es em sua movimenta??o, que fazem com que t?cnicas de controle padr?o nem sempre possam ser aplicadas. O trabalho desenvolvido aqui tamb?m leva em considera??o a utiliza??o de uma t?cnica de detec??o de alvo que possa se tornar adapt?vel a praticamente qualquer tipo de alvo estipulado pelo projetista de acordo com as necessidades de sua aplica??o. O desenvolvimento dos m?todos propostos foram realizados agregando t?cnicas de reconhecimento de padr?es utilizados em c?meras de padr?o RGB comuns, t?cnicas de estimativa de posi??o e orienta??o e algoritmos de controle inteligentes, que possuem baixo custo computacional, aplic?veis a rob?s com restri??es de movimenta??o. / The ability to follow or move along with a specified moving person or object, is a necessary skill in several autonomous agents. Such agents are widely used to perform various tasks in everyday life, and they can be applied either in everyday tasks, such as in supermarket carts or cleaning environments, as well in high-risk tasks like large industries or autonomous cars. The idea presented here is to develop a target tracking and following method applicable to mobile wheeled land robots that have restrictions on their movement, which means that standard control techniques cannot always be applied. The work developed here also takes into account the use of a target detection technique that can be adapted to practically any type of target stipulated by the designer according to the needs of its application. The development of the proposed methods is accomplished by adding standard recognition techniques used in common RGB type cameras, position estimation and orientation techniques, and intelligent control algorithms, with a low computational cost, applicable to robots with movement restrictions.
102

Identificação e mapeamento de áreas de deslizamentos associadas a rodovias utilizando imagens de sensoriamento remoto. / Identification and mapping of landslide areas associated to roads using remote sensing images.

Luiz Augusto Manfré 13 March 2015 (has links)
Ferramentas de geoinformação possuem grande aplicabilidade na compreensão e no mapeamento de deslizamentos. Considerando-se a importância dos componentes do relevo e da cobertura do solo neste processo, torna-se essencial o estabelecimento de metodologias para a síntese de informações do relevo e para a identificação de cicatrizes de deslizamento, de maneira a facilitar o monitoramento de áreas de risco. O objetivo desta Tese é propor metodologias de processamento digital de imagens para o mapeamento e identificação de cicatrizes de deslizamento próximo a rodovias. Um deslizamento de grande porte com várias consequências econômicas, ocorrido no ano de 1999, às margens da Rodovia Anchieta, na bacia hidrográfica do Rio Pilões foi utilizado como área de estudo deste trabalho. Utilizando dados gratuitos, mapas de cobertura do solo e de compartimentação do relevo foram gerados e analisados conjuntamente para a identificação das áreas de potenciais cicatrizes na região das Rodovias Anchieta e Imigrantes. A análise do relevo foi realizada utilizando técnicas de classificação baseada em objeto. A identificação de áreas de cicatrizes de deslizamento foi realizada através da avaliação de duas estratégias metodológicas: uma utilizando o algoritmo de classificação supervisionada SVM (Support Vector Machine) aplicado ao índice de vegetação NDVI (Normalized Difference Vegetation Index) e outra que utilizando combinação entre diferentes classificadores para a composição de uma classificação final. Os resultados obtidos para o mapeamento do relevo mostraram que a metodologia proposta possui grande potencial para a descrição de feições do relevo, com maior nível de detalhamento, facilitando a identificação de áreas com grande potencial de ocorrência de deslizamentos. Ambas as metodologias de identificação de cicatrizes de deslizamento apresentaram bons resultados, sendo que a combinação entre os algoritmos SVM, Redes Neurais e Máxima Verossimilhança apresentou o resultado mais adequado com os objetivos do trabalho, atingindo erro de omissão inferior a 10% para a classe de deslizamento. A combinação dos dois produtos permitiu a análise e identificação de diversas áreas de potenciais cicatrizes de deslizamento associadas à rodovias na região de estudo. A metodologia proposta possui ampla replicabilidade, podendo ser utilizada para análises de risco associadas a assentamentos urbanos, empreendimentos lineares e para o planejamento territorial e ambiental. / Geoinformation tools have great applicability in understanding and mapping landslides. Considering the significance of releif components and land cover in this process, it is essential the establishment of methods for the synthesis of the relief information and identification landslides, aiming to facilitate areas risk monitoring. The objective of this Dissertation is to propose digital image processing methodologies for map and identify landslide near to highways. A large landslide with several economic consequences was used as a study area of this work, occurred in 1999, near the Highway Anchieta, in Piloes river basin. Using free data, land cover and relief subdivsion maps were generated and intersected to identify areas of potential landslides in the region of Highways Anchieta and Imigrantes. The relief analysis was performed using based on object classification techniques. The identification of the landslide was performed by evaluating two methodological strategies: one using the supervised classification algorithm SVM (Support Vector Machine) applied to the NDVI vegetation index (Normalized Difference Vegetation Index) and another using combination of different classifiers for the composition of a final classification. The results obtained for relief mapping showed that the proposed method has great potential for the description of the relief features, with greater detail, facilitating the identification of areas with high potential for occurrence of landslides. Both landslides identification methodologies showed good results, and the combination of SVM, Neural Network and Maximum Likelihood algorithms presented the most appropriate result, reaching omission error of less than 10% for the landslide class. The combination of the two products allowed the analysis and identification of several areas of potential landslide scars associated with roads in the study area. The proposed methodology has extensive replication and can be used for risk analysis associated with urban settlements, linear infrastructures and the territorial and environmental planning.
103

Abordagens para combinar classificadores e agrupadores em problemas de classificação / Approaches for combining classifiers and clusterers in classification problems

Luiz Fernando Sommaggio Coletta 23 November 2015 (has links)
Modelos para aprendizado não supervisionado podem fornecer restrições complementares úteis para melhorar a capacidade de generalização de classificadores. Baseando-se nessa premissa, um algoritmo existente, denominado de C3E (Consensus between Classification and Clustering Ensembles), recebe como entradas estimativas de distribuições de probabilidades de classes para objetos de um conjunto alvo, bem como uma matriz de similaridades entre esses objetos. Tal matriz é tipicamente construída por agregadores de agrupadores de dados, enquanto que as distribuições de probabilidades de classes são obtidas por um agregador de classificadores induzidos por um conjunto de treinamento. Como resultado, o C3E fornece estimativas refinadas das distribuições de probabilidades de classes como uma forma de consenso entre classificadores e agrupadores. A ideia subjacente é de que objetos similares são mais propensos a compartilharem o mesmo rótulo de classe. Nesta tese, uma versão mais simples do algoritmo C3E, baseada em uma função de perda quadrática (C3E-SL), foi investigada em uma abordagem que permitiu a estimação automática (a partir dos dados) de seus parâmetros críticos. Tal abordagem faz uso de um nova estratégia evolutiva concebida especialmente para tornar o C3E-SL mais prático e flexível, abrindo caminho para que variantes do algoritmo pudessem ser desenvolvidas. Em particular, para lidar com a escassez de dados rotulados, um novo algoritmo que realiza aprendizado semissupervisionado foi proposto. Seu mecanismo explora estruturas intrínsecas dos dados a partir do C3E-SL em um procedimento de autotreinamento (self-training). Esta noção também inspirou a concepção de um outro algoritmo baseado em aprendizado ativo (active learning), o qual é capaz de se autoadaptar para aprender novas classes que possam surgir durante a predição de novos dados. Uma extensa análise experimental, focada em problemas do mundo real, mostrou que os algoritmos propostos são bastante úteis e promissores. A combinação de classificadores e agrupadores resultou em modelos de classificação com grande potencial prático e que são menos dependentes do usuário ou do especialista de domínio. Os resultados alcançados foram tipicamente melhores em comparação com os obtidos por classificadores tradicionalmente usados. / Unsupervised learning models can provide a variety of supplementary constraints to improve the generalization capability of classifiers. Based on this assumption, an existing algorithm, named C3E (from Consensus between Classification and Clustering Ensembles), receives as inputs class probability distribution estimates for objects in a target set as well as a similarity matrix. Such a similarity matrix is typically built from clusterers induced on the target set, whereas the class probability distributions are obtained by an ensemble of classifiers induced from a training set. As a result, C3E provides refined estimates of the class probability distributions, from the consensus between classifiers and clusterers. The underlying idea is that similar new objects in the target set are more likely to share the same class label. In this thesis, a simpler version of the C3E algorithm, based on a Squared Loss function (C3E-SL), was investigated from an approach that enables the automatic estimation (from data) of its critical parameters. This approach uses a new evolutionary strategy designed to make C3E-SL more practical and flexible, making room for the development of variants of the algorithm. To address the scarcity of labeled data, a new algorithm that performs semi-supervised learning was proposed. Its mechanism exploits the intrinsic structure of the data by using the C3E-SL algorithm in a self-training procedure. Such a notion inspired the development of another algorithm based on active learning, which is able to self-adapt to learn new classes that may emerge when classifying new data. An extensive experimental analysis, focused on real-world problems, showed that the proposed algorithms are quite useful and promising. The combination of supervised and unsupervised learning yielded classifiers of great practical value and that are less dependent on user-defined parameters. The achieved results were typically better than those obtained by traditional classifiers.
104

Agregação de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy

Pacheco, André Georghton Cardoso 15 July 2016 (has links)
Submitted by Patricia Barros (patricia.barros@ufes.br) on 2017-07-03T10:36:35Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andre Georghton Cardoso Pacheco Agregacao de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy.pdf: 2377890 bytes, checksum: a119a6b35273222d80df45cdde5602db (MD5) / Approved for entry into archive by Patricia Barros (patricia.barros@ufes.br) on 2017-07-19T09:37:39Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andre Georghton Cardoso Pacheco Agregacao de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy.pdf: 2377890 bytes, checksum: a119a6b35273222d80df45cdde5602db (MD5) / Made available in DSpace on 2017-07-19T09:37:39Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andre Georghton Cardoso Pacheco Agregacao de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy.pdf: 2377890 bytes, checksum: a119a6b35273222d80df45cdde5602db (MD5) / CAPES / Data classification appears in many real-world problems, e.g., recognition of image patterns, differentiation among species of plants, classifying between benign and malignant tumors, among others. Many of these problems present data patterns, which are difficult to be identified, thus requiring more advanced techniques to be solved. Over the last few years, various classification algorithms have been developed to address these problems, but there is no classifier able to be the best choice in all situations. So, the concept of ensemble systems arise, which more than one methodology is used together to solve a particular problem. As a simple and effective methodology, ensemble of classifiers have been applied in several classification problems, aiming to improve performance and increase reliability of the final result. However, in order to improve the classification accuracy, an affective aggregation of classifiers must be performed. In this work, we present two contributions: first, we describe three classifiers based on neural networks, a multilayer feedforward trained by Levenberg-Marquardt algorithm; an extreme learning machine (ELM); and a discriminative restricted Boltmann machine (DRBM). Furthermore, we use conventional classifier k-nearest neighbors (KNN). Next, we propose an aggregation methodology to ensemble of classifiers using Choquet integral with respect to a fuzzy measure obtained by principal component analysis (PCA). Then, we apply this methodology to aggregate the classifiers performed to conventional benchmarks, for large database and the results are promising. / Classificação de dados pode ser aplicada em diversos problemas reais, tais como: reconhecer padrões em imagens, diferenciar espécies de plantas, classificar tumores benignos e malignos, dentre outros. Muitos desses problemas possuem padrões de dados difíceis de serem identificados, o que requer, consequentemente, técnicas mais avançadas para sua resolução. Ao longo dos anos, diversos algoritmos de classificação foram desenvolvidos para abordar esses problemas, todavia, não existe um classificador capaz de ser a melhor opção em todas as situações. Baseado nisso, surge o conceito de sistema baseado em elenco, no qual, mais de uma metodologia é utilizada em conjunto para solucionar um determinado problema. Por ser uma metodologia simples e eficaz, elenco de classificadores vem sendo aplicado em diversos problemas de classificação com intuito de melhorar o desempenho e de aumentar confiabilidade do resultado final. Entretanto, para que o elenco seja capaz de promover melhorias, uma boa técnica de agregação deve ser aplicada. Neste trabalho, duas contribui- ções são apresentadas: primeiramente será apresentado o uso de três classificadores baseado em redes neurais artificiais, sendo uma rede neural multicamadas feedforward usando o algoritmo de treinamento de Levenberg-Marquardt, uma rede neural do tipo máquina de aprendizado extremo (ELM), e uma máquina de Boltzmann restrita discriminativa (DRBM), além de um classificador convencional do tipo K vizinhos mais próximos (KNN). A seguir é proposta uma metodologia de agregação de elenco de classificadores utilizando a integral de Choquet com respeito a uma medida fuzzy obtida através da técnica de Análise de Componentes Principais (PCA). Por fim, tal metodologia é aplicada para agregar os classificadores obtidos para benchmarks convencionais da literatura, para grande base de dados e os resultados são promissores
105

Segmentação de imagens 3D utilizando combinação de imagens 2D

ARAÚJO, Caio Fernandes 12 August 2016 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2017-08-30T18:18:41Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertacao Caio Fernandes Araujo Versão Biblioteca.pdf: 4719896 bytes, checksum: 223db1c4382e6f970dc2cd659978ab60 (MD5) / Made available in DSpace on 2017-08-30T18:18:42Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertacao Caio Fernandes Araujo Versão Biblioteca.pdf: 4719896 bytes, checksum: 223db1c4382e6f970dc2cd659978ab60 (MD5) Previous issue date: 2016-08-12 / CAPES / Segmentar imagens de maneira automática é um grande desafio. Apesar do ser humano conseguir fazer essa distinção, em muitos casos, para um computador essa divisão pode não ser tão trivial. Vários aspectos têm de ser levados em consideração, que podem incluir cor, posição, vizinhanças, textura, entre outros. Esse desafio aumenta quando se passa a utilizar imagens médicas, como as ressonâncias magnéticas, pois essas, além de possuírem diferentes formatos dos órgãos em diferentes pessoas, possuem áreas em que a variação da intensidade dos pixels se mostra bastante sutil entre os vizinhos, o que dificulta a segmentação automática. Além disso, a variação citada não permite que haja um formato pré-definido em vários casos, pois as diferenças internas nos corpos dos pacientes, especialmente os que possuem alguma patologia, podem ser grandes demais para que se haja uma generalização. Mas justamente por esse possuírem esses problemas, são os principais focos dos profissionais que analisam as imagens médicas. Este trabalho visa, portanto, contribuir para a melhoria da segmentação dessas imagens médicas. Para isso, utiliza a ideia do Bagging de gerar diferentes imagens 2D para segmentar a partir de uma única imagem 3D, e conceitos de combinação de classificadores para uni-las, para assim conseguir resultados estatisticamente melhores, se comparados aos métodos populares de segmentação. Para se verificar a eficácia do método proposto, a segmentação das imagens foi feita utilizando quatro técnicas de segmentação diferentes, e seus resultados combinados. As técnicas escolhidas foram: binarização pelo método de Otsu, o K-Means, rede neural SOM e o modelo estatístico GMM. As imagens utilizadas nos experimentos foram imagens reais, de ressonâncias magnéticas do cérebro, e o intuito do trabalho foi segmentar a matéria cinza do cérebro. As imagens foram todas em 3D, e as segmentações foram feitas em fatias 2D da imagem original, que antes passa por uma fase de pré-processamento, onde há a extração do cérebro do crânio. Os resultados obtidos mostram que o método proposto se mostrou bem sucedido, uma vez que, em todas as técnicas utilizadas, houve uma melhoria na taxa de acerto da segmentação, comprovada através do teste estatístico T-Teste. Assim, o trabalho mostra que utilizar os princípios de combinação de classificadores em segmentações de imagens médicas pode apresentar resultados melhores. / Automatic image segmentation is still a great challenge today. Despite the human being able to make this distinction, in most of the cases easily and quickly, to a computer this task may not be that trivial. Several characteristics have to be taken into account by the computer, which may include color, position, neighborhoods, texture, among others. This challenge increases greatly when it comes to using medical images, like the MRI, as these besides producing images of organs with different formats in different people, have regions where the intensity variation of pixels is subtle between neighboring pixels, which complicates even more the automatic segmentation. Furthermore, the above mentioned variation does not allow a pre-defined format in various cases, because the internal differences between patients bodies, especially those with a pathology, may be too large to make a generalization. But specially for having this kind of problem, those people are the main targets of the professionals that analyze medical images. This work, therefore, tries to contribute to the segmentation of medical images. For this, it uses the idea of Bagging to generate different 2D images from a single 3D image, and combination of classifiers to unite them, to achieve statistically significant better results, if compared to popular segmentation methods. To verify the effectiveness of the proposed method, the segmentation of the images is performed using four different segmentation techniques, and their combined results. The chosen techniques are the binarization by the Otsu method, K-Means, the neural network SOM and the statistical model GMM. The images used in the experiments were real MRI of the brain, and the dissertation objective is to segment the gray matter (GM) of the brain. The images are all in 3D, and the segmentations are made using 2D slices of the original image that pass through a preprocessing stage before, where the brain is extracted from the skull. The results show that the proposed method is successful, since, in all the applied techniques, there is an improvement in the accuracy rate, proved by the statistical test T-Test. Thus, the work shows that using the principles of combination of classifiers in medical image segmentation can obtain better results.
106

ComitÃs de Classificadores Baseados nas Redes SOM e Fuzzy ART com Sintonia de ParÃmetros e SeleÃÃo de Atributos via MetaheurÃsticas EvolucionÃrias / Ensembles of classifiers based on SOM and Fuzzy ART networks with parameter tuning and feature selection through evolutionary metaheuristics.

CÃsar Lincoln Cavalcante Mattos 28 November 2011 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / O paradigma de classificaÃÃo baseada em comitÃs tem recebido considerÃvel atenÃÃo na literatura cientÃfica em anos recentes. Neste contexto, redes neurais supervisionadas tÃm sido a escolha mais comum para compor os classificadores base dos comitÃs. Esta dissertaÃÃo tem a intenÃÃo de projetar e avaliar comitÃs de classificadores obtidos atravÃs de modificaÃÃes impostas a algoritmos de aprendizado nÃo-supervisionado, tais como as redes Fuzzy ART e SOM, dando origem, respectivamente, Ãs arquiteturas ARTIE (ART in Ensembles) e MUSCLE (Multiple SOM Classifiers in Ensembles). A sintonia dos parÃmetros e a seleÃÃo dos atributos das redes neurais que compÃem as arquiteturas ARTIE e MUSCLE foram tratados por otimizaÃÃo metaheurÃstica, a partir da proposiÃÃo do algoritmo I-HPSO (Improved Hybrid Particles Swarm Optimization). As arquiteturas ARTIE e MUSCLE foram avaliadas e comparadas com comitÃs baseados nas redes Fuzzy ARTMAP, LVQ e ELM em 12 conjuntos de dados reais. Os resultados obtidos indicam que as arquiteturas propostas apresentam desempenhos superiores aos dos comitÃs baseados em redes neurais supervisionadas.
107

Metodologia de estimação de idade óssea baseada em características métricas utilizando mineradores de dados e classificador neural / Methodology for bone age estimation based on metric characteristics using data mining and neural classifier

Evandra Maria Raymundo 29 September 2009 (has links)
Este trabalho apresenta uma proposta de metodologia de estimação de idade óssea baseada em características métricas, utilizando o banco de imagens carpais da Escola de Engenharia de São Carlos (EESC). As imagens foram devidamente segmentadas para obtenção da área, perímetro e comprimento de cada osso, gerando, assim, um banco de dados métricos o CarpEven. As informações da base métrica CarpEven foram submetidas a dois mineradores de dados: ao StARMiner, (Statistical Association Rules) uma metodologia de mineração de dados criada por um grupo de pesquisadores do ICMC-USP, e ao Weka (Waikato Environment for Knowledge Analysis), desenvolvido pela Universidade Waikato da Nova Zelândia. As informações foram submetidas a classificadores neurais, contribuindo, assim, para a criação de uma nova metodologia de estimação de idade óssea. Finalmente, é feita uma comparação entre os resultados obtidos e os resultados já alcançados por outras pesquisas. / This work presents a methodology for bone age estimation based on metric characteristics using the carpal images database from Engineering School of São Carlos (EESC-USP). The images were properly segmented to obtain the area, perimeter and length of each bone, thus generating a metric database named CarpEven. The database information were submitted to two data miners: the StarMiner (Statistical Association Rules Miner) a methodology for data mining created by a group of researchers from ICMC-USP, and the Weka (Waikato Environment for Knowledge Analysis), developed by the University of Waikato in New Zealand. The information was submitted to the neural classifiers contributing to the creation of a new methodology for bone age estimation. The results are compared with those obtained by others research.
108

Previsão de falta de materiais no contexto de gestão inteligente de inventário: uma aplicação de aprendizado desbalanceado

Santis, Rodrigo Barbosa de 26 March 2018 (has links)
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-06-19T13:13:53Z No. of bitstreams: 1 rodrigobarbosadesantis.pdf: 2597054 bytes, checksum: b19542ca0e9312572d8ffa5896d735db (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-06-27T11:12:01Z (GMT) No. of bitstreams: 1 rodrigobarbosadesantis.pdf: 2597054 bytes, checksum: b19542ca0e9312572d8ffa5896d735db (MD5) / Made available in DSpace on 2018-06-27T11:12:01Z (GMT). No. of bitstreams: 1 rodrigobarbosadesantis.pdf: 2597054 bytes, checksum: b19542ca0e9312572d8ffa5896d735db (MD5) Previous issue date: 2018-03-26 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Falta de materiais é um problema comum na cadeia de suprimentos, impactando o nível de serviço e eficiência de um sistema de inventário. A identificação de materiais com grande riscos de falta antes da ocorrência do evento pode apresentar uma enorme oportunidade de melhoria no desempenho geral de uma empresa. No entanto, a complexidade deste tipo de problema é alta, devido ao desbalanceamento das classes de itens faltantes e não faltantes no inventário, que podem chegar a razões de 1 para 100. No presente trabalho, algoritmos de classificação são investigados para proposição de um modelo preditivo para preencher esta lacuna na literatura. Algumas métricas específicas como a área abaixo das curvas de Característica Operacionais do Receptor e de Precisão-Abrangência, bem como técnicas de amostragem e comitês de aprendizado são aplicados nesta tarefa. O modelo proposto foi testado em dois estudos de caso reais, nos quais verificou-se que adoção da ferramenta pode contribuir com o aumento do nível de serviço em uma cadeia de suprimentos. / Material backorder (or stockout) is a common supply chain problem, impacting the inventory system service level and effectiveness. Identifying materials with the highest chances of shortage prior its occurrence can present a high opportunity to improve the overall company’s performance. However, the complexity of this sort of problem is high, due to class imbalance between missing items and not missing ones in inventory, which can achieve proportions of 1 to 100. In this work, machine learning classifiers are investigated in order to fulfill this gap in literature. Specific metrics such as area under the Receiver Operator Characteristic and precision-recall curves, sampling techniques and ensemble learning are employed to this particular task. The proposed model was tested in two real case-studies, in which it was verified that the use of the tool may contribute with the improvemnet of the service level in the supply chain.
109

Projeto e desenvolvimento de técnicas forenses para identificação de imagens sintéticas / Design and development of forensic techniques for synthetic image identification

Tokuda, Eric Keiji, 1984- 21 August 2018 (has links)
Orientadores: Hélio Pedrini, Anderson de Rezende Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-21T20:45:31Z (GMT). No. of bitstreams: 1 Tokuda_EricKeiji_M.pdf: 9271810 bytes, checksum: 933cc41bd2c4a5d4ace8239be240b632 (MD5) Previous issue date: 2012 / Resumo: O grande investimento de companhias de desenvolvimento de software para animação 3D nos últimos anos tem levado a área de Computação Gráfica a patamares nunca antes atingidos. Frente a esta tecnologia, torna-se cada vez mais difícil a um usuário comum distinguir fotografias reais de imagens produzidas em computador. Mais do que nunca, a fotografia, como meio de informação segura, passa a ter sua idoneidade questionada. A identificação de imagens geradas por computador tornou-se uma tarefa imprescindível. Existem diversos métodos de classificação de imagens fotográficas e geradas por computador na literatura. Todos os trabalhos se concentram em identificar diferenças entre imagens fotográficas e imagens geradas por computador. Contudo, no atual estágio da Computação Gráfica, não há uma caracterização isolada que resolva o problema. Propomos uma análise comparativa entre diferentes formas de combinação de descritores para abordar este problema. Para tanto, criamos um ambiente de testes com diversidade de conteúdo e de qualidade; implementamos treze métodos representativos da literatura; criamos e implementamos quatro abordagens de fusão de dados; comparamos os resultados dos métodos isolados com o resultado dos mesmos métodos combinados. Realizamos a implementação e análise de um total de treze métodos. O conjunto de dados para validação foi composto por aproximadamente 5.000 fotografias e 5.000 imagens geradas por computador. Resultados isolados atingiram acurácias de até 93%. A combinação destes mesmos métodos atingiu uma precisão de 97% (uma redução de 57% no erro do melhor método de maneira isolada) / Abstract: The development of powerful and low-cost hardware devices allied with great advances on content editing and authoring tools have pushed the creation of computer generated images (CGI) to a degree of unrivaled realism. Differentiating a photorealistic computer generated image from a real photograph can be a difficult task to naked eyes. Digital forensics techniques can play a significant role in this task. Indeed, important research has been made by our community in this regard. The current approaches focus on single image features aiming at spotting out diferences between real and computer generated images. However, with the current technology advances, there is no universal image characterization technique that completely solves this problem. In our work, we present a complete study of several current CGI vs. Photograph approaches; create a big and heterogeneous dataset to be used as a training and validation database; implement representative methods of the literature; and devise automatic ways to combine the best approaches. We compare the implemented methods using the same validation environment. Approximately 5,000 photographs and 5,000 CGIs with large diversity of content and quality were collected. A total of 13 methods were implemented. Results show that this set of methods, in an integrated approach, can achieve up to 93% of accuracy. The same methods, when combined through the proposed fusion schemes, can achieve an accuracy rate of 97% (a reduction of 57% of the error over the best result alone) / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
110

Planejamento, gerenciamento e análise de dados de microarranjos de DNA para identificação de biomarcadores de diagnóstico e prognóstico de cânceres humanos / Planning, management and analysis of DNA microarray data aiming at discovery of biomarkers for diagnosis and prognosis of human cancers.

Ana Carolina Quirino Simões 12 May 2009 (has links)
Nesta tese, apresentamos nossas estratégias para desenvolver um ambiente matemático e computacional para análises em larga-escala de dados de expressão gênica obtidos pela tecnologia de microarranjos de DNA. As análises realizadas visaram principalmente à identificação de marcadores moleculares de diagnóstico e prognóstico de cânceres humanos. Apresentamos o resultado de diversas análises implementadas através do ambiente desenvolvido, as quais conduziram a implementação de uma ferramenta computacional para a anotação automática de plataformas de microarranjos de DNA e de outra ferramenta destinada ao rastreamento da análise de dados realizada em ambiente R. Programação eXtrema (eXtreme Programming, XP) foi utilizada como técnica de planejamento e gerenciamento dos projetos de análise dados de expressão gênica. Todos os conjuntos de dados foram obtidos por nossos colaboradores, utilizando-se duas diferentes plataformas de microarranjos de DNA: a primeira enriquecida em regiões não-codificantes do genoma humano, em particular regiões intrônicas, e a segunda representando regiões exônicas de genes humanos. A primeira plataforma foi utilizada para avaliação do perfil de expressão gênica em tumores de próstata e rim humanos, sendo que análises utilizando SAM (Significance Analysis of Microarrays) permitiram a proposição de um conjunto de 49 sequências como potenciais biomarcadores de prognóstico de tumores de próstata. A segunda plataforma foi utilizada para avaliação do perfil de transcritos expressos em sarcomas, carcinomas epidermóide e carcinomas epidermóides de cabeça e pescoço. As análises com sarcomas permitiram a identificação de um conjunto de 12 genes relacionados à agressividade local e metástase. As análises com carcinomas epidermóides de cabeça e pescoço permitiram a identificação de 7 genes relacionados à metástase linfonodal. / In this PhD Thesis, we present our strategies to the development of a mathematical and computational environment aiming the analysis of large-scale microarray datasets. The analyses focused mainly on the identification of molecular markers for diagnosis and prognosis of human cancers. Here we show the results of several analyses implemented using this environment, which led to the development of a computational tool for automatic annotation of DNA microarray platforms and a tool for tracking the analysis within R environment. We also applied eXtreme Programming (XP) as a tool for planning and management of gene expression analyses projects. All data sets were obtained by our collaborators using two different microarray platforms. The first is enriched in non-coding human sequences, particularly intronic sequences. The second one represents exonic regions of human genes. Using the first platform, we evaluated gene expression profiles of prostate and kidney human tumors. Applying SAM to prostate tumor data revealed 49 potential molecular markers for prognosis of this disease. Gene expression in samples of sarcomas, epidermoid carcinomas and head and neck epidermoid carcinomas was investigated using the second platform. A set of 12 genes were identified as potential biomarkers for local aggressiveness and metastasis in sarcoma. In addition, the analyses of data obtained from head and neck epidermoid carcinomas allowed the identification of 7 potential biomarkers for lymph-nodal metastases.

Page generated in 0.0917 seconds