Spelling suggestions: "subject:"inteligência"" "subject:"nteligência""
41 |
Um processo para classificação de sentimentos no twitter utilizando termos factuais e retweetsOLIVEIRA, Gleibson Rodrigo Silva de 01 July 2014 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-05-13T17:35:12Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertacao - Gleibson Oliveira.pdf: 1128535 bytes, checksum: 58357adabe3c7e05194c892a9e5f46fd (MD5) / Made available in DSpace on 2016-05-13T17:35:12Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertacao - Gleibson Oliveira.pdf: 1128535 bytes, checksum: 58357adabe3c7e05194c892a9e5f46fd (MD5)
Previous issue date: 2014-07-01 / CNPQ / A internet hoje pode ser considerada uma das maiores bases de informações do mundo, acessível para qualquer pessoa. Com sua popularização e o crescimento da necessidade de produção de conteúdo, popularizam-se também os blogs e principalmente as redes sociais, onde milhões de usuários trocam informações e opinam sobre os mais diferentes assuntos. Opiniões, por sua vez, são de grande valia no processo decisório, seja de empresas ou de pessoas físicas. Entretanto, o crescimento vertiginoso dessas informações na internet torna o trabalho de obter uma opinião geral acerca de um determinado assunto uma tarefa complicada, sobretudo se for realizada de forma manual. Uma solução automatizada apresenta-se como a melhor saída. Cresce, então, uma área bastante utilizada para construção de sistemas que tratam opinião de forma automatizada, a Análise de Sentimento (AS), também nomeada de Mineração de Opinião. Seu objetivo é classificar textos, sentenças ou blocos de texto como positivos ou negativos acerca da opinião a respeito de algum objeto, seja este um produto, serviço ou até mesmo uma pessoa. Muitos trabalhos foram propostos na área de Análise de Sentimentos, provendo avaliações da opinião global ou detalhada (para cada característica) a respeito do objeto analisado. Entretanto, a grande maioria dos trabalhos obtém a opinião de uma característica do objeto através da análise do adjetivo associado a mesma. O trabalho aqui proposto busca expandir essa análise para as demais palavras, incluindo substantivos e palavras de outras classes gramaticais que possam indicar opinião acerca do objeto. O processo proposto utiliza como fonte de opiniões o debate político polarizado, onde os usuários, potenciais eleitores, se posicionam em um dos lados da disputa. Os dados foram coletados do micro blog Twitter [TWITTER, 2006] até o horário de início das votações. O processo tem como objetivo incluir termos pouco abordados na literatura como representadas das opiniões dos usuários, evitando assim a eliminação sumária de parte do corpus analisado. / Nowadays, the internet can be considered one of the largest databases of information in the world, accessible to anyone. With its popularity and growth of the need to produce content, also become popular, blogs and especially social networks, where millions of users exchange information and think of the most different subjects. Opinions, in turn, are of great value in the decision making process, whether companies or individuals. However, the rapid growth of such information on the Internet makes work to get a general opinion about a given subject a complicated task, particularly if performed manually. An automated solution is presented as a best option. Grows, then a quite area used to build systems that handle automated opinion, the Sentiment Analysis (SA), also named Mining Opinion. Your goal is to classify texts, sentences or blocks of text as positive or negative opinion about any object, be it a product, service or even a person. Many works have been proposed in the area of sentiment analysis, providing assessments of global or detailed view (for each feature) about the analyzed object. However, the vast majority of researchs get the opinion of a characteristic of the object by analyzing the adjective associated with it. The work proposed here seeks to expand this analysis to other words, including nouns and other grammatical classes of words that may indicate opinion about the object. The proposed process uses polarized political debate as a source of opinions, where users, potential voters, are positioned on one side of the race. Data were collected from the micro blog Twitter [TWITTER, 2006] until the start time of voting. The process aims to include terms used poorly in the literature as represented the views of users, thus avoiding the summary disposal of the analyzed corpus.
|
42 |
Seleção multiobjetivo de casos de teste utilizando técnicas de busca híbridasSOUZA, Luciano Soares de 11 March 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-29T16:27:00Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
SELEÇÃO MULTIOBJETIVO DE CASOS DE TESTE UTILIZANDO TÉNICAS D.pdf: 2504671 bytes, checksum: 3fa2f78b63cef5f656bf1a2897b15ec3 (MD5) / Made available in DSpace on 2017-11-29T16:27:00Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
SELEÇÃO MULTIOBJETIVO DE CASOS DE TESTE UTILIZANDO TÉNICAS D.pdf: 2504671 bytes, checksum: 3fa2f78b63cef5f656bf1a2897b15ec3 (MD5)
Previous issue date: 2016-03-11 / CAPES / O processo de geração automática de casos de teste de software pode produzir grandes suítes que podem ser custosas para executar. Por causa disso, é necessária uma forma de selecionar um subconjunto de casos de teste de forma a adequar a execução dos testes aos recursos disponíveis no ambiente de testes. Essa tarefa é conhecida como seleção de casos de teste. Assim como a execução dos testes, a seleção de casos de teste pode ser custosa, pois normalmente é realizada de forma manual. Além disso, essa tarefa não é trivial, pois a mesma é equivalente ao problema NP-Completo de cobertura de conjuntos. Portanto, técnicas de busca são indicadas na resolução desse tipo de problema. Essa área de pesquisa é conhecida como Engenharia de Software Baseada em Busca. A maioria dos trabalhos relacionados aos testes de software dentro dessa área consideram apenas um único critério de seleção (objetivo). Entretanto, em alguns ambientes de testes é necessário atender a mais de um objetivo durante o processo de seleção. Nesses casos o problema de seleção é considerado como multicritério (ou multiobjetivo). Dentro desse contexto, o presente trabalho propôs novas técnicas de busca (híbridas e não híbridas) para a seleção multiobjetivo de casos de teste. Essas técnicas foram comparadas (através de experimentos controlados) em relação à qualidade das fronteiras de Pareto retornadas e em relação à capacidade de detecção de falhas. Adicionalmente, restrições impostas pelo ambiente de testes foram consideradas e técnicas híbridas com mecanismos de tratamento de restrições foram propostas e comparadas. Por fim, das técnicas propostas a técnica BSMPSO-FB (Binary Speed-constrained Multi-objective Particle Swarm Optimization with Forward Selection and Backward Elimination) foi a que obteve melhores resultados. / The automatic test generation process can produce large test suites that can be very expensive to execute. Because of this, it is necessary to select a subset of test cases in order to fit the test execution to the available resources. This task is known as test case selection. Like manual test execution, test case selection can be very expensive because it, is usually performed by humans. Furthermore, this is not a trivial task because it is equivalent to the NP-Complete set covering problem. Hence, search techniques are well suited to deal with this problem. This research area is known as Search Based Software Engineering. Most of the test case selection works considers only one criterion (objective) at a time. But, some test environments need to consider more the one objective during the test case selection. In this light, the problem is referred as multi-criteria search (or multi-objective). According to this scenario, this work proposed new search techniques (hybrid and non hybrid) for multi-objective test case selection. These techniques were compared
(through controlled experiments) by considering the quality of the returned Pareto frontiers and its faults detection ability. Furthermore, environments constraints were considered and new hybrid techniques with constraints treatment mechanisms were proposed and evaluated. In the end the BSMPSO-FB (Binary Speed-constrained Multi-objective Particle Swarm Optimization with Forward Selection and Backward Elimination) technique was the one with the best results.
|
43 |
Um sistema de diálogo inteligente baseado em lógica de descriçõesAZEVEDO, Ryan Ribeiro de 09 March 2015 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2018-04-13T21:15:35Z
No. of bitstreams: 1
TESE Ryan Ribeiro de Azevedo.pdf: 5788437 bytes, checksum: e699d3b5b7abb47ba1cb965d8c220e0e (MD5) / Made available in DSpace on 2018-04-13T21:15:35Z (GMT). No. of bitstreams: 1
TESE Ryan Ribeiro de Azevedo.pdf: 5788437 bytes, checksum: e699d3b5b7abb47ba1cb965d8c220e0e (MD5)
Previous issue date: 2015-03-09 / CNPQ / Abordagens baseadas em Processamento de Linguagem Natural, a exemplo de sistemas de diálogos – os quais funcionam respondendo de maneira breve e superficial a perguntas realizadas pelos usuários –, assim como, os sistemas baseados em técnicas de Aprendizado de Ontologias, utilizados para construção semi-automática de ontologias a partir de texto, são largamente encontrados na Web e possuem capacidade de realizar raciocínio automático, bem como, representar conhecimento. Estas capacidades – as de raciocinar e representar conhecimento - são questionáveis e consideradas como limitadas. Este quadro situacional leva nossa exploração a um novo paradigma de sistemas de diálogo, qual seja: um sistema que dialoga, aprende por dedução e representa conhecimento em Lógica de Descrições de múltiplos domínios. Desenvolver um sistema de diálogo inteligente, batizado como Renan, concebido para a criação semi-automática de ontologias – que interage com usuários em linguagem natural, formalizando e codificando conhecimento em lógica de descrições e, principlamente, com capacidade de aprender e de realizar raciocínio automático, a partir dessas interações com os usuários – pode consistir numa solução viável e efetiva na automatização do processo de construção de ontologias expressívas e de boa qualidade. Os resultados alcançados demonstraram que Renan consiste em uma solução eficiente para: (1) Representação de Conhecimento; portanto, formaliza e modela domínios de conhecimento em uma linguagem expressiva e padrão da Web Semântica, a partir de interações em linguagem natural controlada com usuários. (2) Raciocínio Automático; a abordagem permite que novos fatos sejam deduzidos a partir de outros, realizando raciocínio de subsunção, bem como, de inconsistências, verificando fatos contraditórios nas bases de conhecimento construídas durante as interações com seus usuários. Renan, contribui para com o avanço do estado da arte provendo, portanto, uma solução adequada e efetiva na construção automática de ontologias expressivas (expressividade máxima ALC – Attributive Concept Language with Complements) e raciocinio automático, a partir de interações em linguagem natural com seres humanos. Renan permite a identificação de axiomas e modificação destes. Além disso, realiza raciocínio de subsunção, deduzindo novos fatos a partir de outros, assim como, a verificação de inconsistências nestes fatos durante as interações com seus usuários. Também incluímos em nossas conclusões que nossa abordagem contribui para os engenheiros de ontologias e desenvolvedores, além de usuários inexperientes/leigos interessados no seu desenvolvimento. / Approaches based on Natural Language Processing, like dialogue systems - which work responding questions asked by users in a brief and superficial way - as well as systems based on Ontology Learning techniques, which are used for the construction of semi-automatic ontologies from text, are largely found on the Web and have the ability to perform automated reasoning, as well as representing knowledge. These capabilities – those of reason and knowledge representation – are questionable and considered limited. This situation leads our operation to a new dialogue system paradigm: a system able to dialogue, learn by deduction and represent knowledge in multiple domains of Description Login. To demonstrate that the dialogue system developed and called Renan, designed for semi-automatic ontologies creation, which interacts with users in natural language, formalizing and codifying knowledge in Description Logic and, mainly, with ability to learn and perform automated reasoning -from these interactions with users – may be a viable and effective solution for automating the building process of expressive and good quality ontologies. The results showed that Renan consists in an efficient solution for: (1) Knowledge Representation; therefore, formalizes and model knowledge domain in a standard and expressive language from the Web Semantic, through natural language interactions controlled by users. (2) Automatic Reasoning; the approach allows new facts to be deduced from others facts, performing reasoning subsumption as well as inconsistencies, checking contradictory facts in the knowledge bases built during interactions with their users. Renan, contributes to state of the art advancement, providing thus an appropriate and effective solution for the automatic construction of expressive ontologies (maximum expressiveness ALC - Attributive Concept Language with Complements) and automatic reasoning, from interactions in humans natural language. Renan enables the identification and modification of these axioms. In addition, performs subsumption reasoning by deducing new facts from another, checking for inconsistencies in these facts during interactions with their users as well. We also included in our conclusive considerations that our approach contributes to the ontologic engineers and developers, and inexperienced / laity interested in the development users.
|
44 |
Reconhecimento de expressões faciais utilizando estimação de movimentoSANTIAGO, Hemir da Cunha 07 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T21:40:31Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Hemir da Cunha Santiago.pdf: 2328852 bytes, checksum: fef592fcea41c2d4f8c811862b941d72 (MD5) / Made available in DSpace on 2018-06-25T21:40:31Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Hemir da Cunha Santiago.pdf: 2328852 bytes, checksum: fef592fcea41c2d4f8c811862b941d72 (MD5)
Previous issue date: 2017-02-07 / As expressões faciais fornecem informações sobre a resposta emocional e exercem um papel fundamental na interação humana e como forma de comunicação não-verbal. Contudo, o reconhecimento das expressões ainda é algo considerado complexo para o computador. Neste trabalho, propomos um novo extrator de características que utiliza a estimação de movimento para o reconhecimento de expressões faciais. Nesta abordagem, o movimento facial entre duas expressões é codificado usando uma estimação dos deslocamentos de regiões entre duas imagens, que podem ser da mesma face ou de faces similares. A imagem da expressão facial é comparada a outra imagem mais similar em cada expressão facial da base de treinamento, a maior similaridade é obtida usando a medida de Similaridade Estrutural (SSIM - Structural Similarity Index). Após a identificação das imagens mais similares na base de treinamento, são calculados os vetores de movimento entre a imagem cuja expressão facial será reconhecida e a outra mais similar em uma das expressões da base. Para calcular os vetores de movimento é proposto o algoritmo MARSA(Modified Adaptive Reduction of the Search Area). Todos os vetores de movimento são comparados às coordenadas com as maiores ocorrências dentre todos os vetores de movimento obtidos durante a fase de treinamento, a partir dessa comparação são gerados os vetores de características que servem de dados de entrada para uma SVM (Support Vector Machine),que irá realizar a classificação da expressão facial. Diversas bases de imagens e vídeos de faces, reproduzindo expressões faciais, foram utilizadas para os experimentos. O critério adotado para a escolha das bases foi a frequência com que são utilizadas em outros trabalhos do estado da arte, portanto foram escolhidas: Cohn-Kanade (CK), Extended Cohn-Kanade (CK+), Japanese Female Facial Expression (JAFFE), MMI e CMU Pose, Illumination, and Expression (CMU-PIE). Os resultados experimentais demostram taxas de reconhecimento das expressões faciais compatíveis a outros trabalhos recentes da literatura, comprovando a eficiência do método apresentado. / Facial expressions provide information on the emotional response and play an essential role in human interaction and as a form of non-verbal communication. However, there cognition of expressions is still something considered complex for the computer. In this work, it is proposed a novel feature extractor that uses motion estimation for Facial Expression Recognition (FER). In this approach, the facial movement between two expressions is coded using an estimation of the region displacements between two images, which may be of the same face or the like. The facial expression image is compared to another more similar image in each facial expression of the training base, the best match is obtained using the Structural Similarity Index (SSIM). After identifying the most similar images in the training base, the motion vectors are calculated between the reference image and the other more similar in one of the expressions of the base. To calculate the motion vectors is proposed the MARSA (Modified Adaptive Reduction of the Search Area) algorithm. All motion vectors are compared to the coordinates with the highest occurrences of all motion vectors obtained during the training phase, from this comparison the feature vectors are generated that serve as input data for a SVM (Support Vector Machine), which will perform the classification of facial expression. Several databases of images and videos of faces reproducing facial expressions were used for the experiments, the adopted criteria for selection of the bases was the frequency which they are used in the state of the art, then were chosen: CohnKanade (CK), Extended Cohn-Kanade (CK+), Japanese Female Facial Expression (JAFFE), MMI, and CMU Pose, Illumination, and Expression (CMU-PIE). The experimental results demonstrate that there cognition rates of facial expressions are compatible to recent literature works proving the efficiency of the presented method.
|
45 |
Combinação de classificadores em diferentes espaços de características para classificação de documentosPINHEIRO, Roberto Hugo Wanderley 17 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T22:35:53Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Roberto Hugo Wanderley Pinheiro.pdf: 6289465 bytes, checksum: 9baff75de0aed82ef29265d6f5c36b1f (MD5) / Made available in DSpace on 2018-06-25T22:35:53Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Roberto Hugo Wanderley Pinheiro.pdf: 6289465 bytes, checksum: 9baff75de0aed82ef29265d6f5c36b1f (MD5)
Previous issue date: 2017-02-20 / FACEPE / Classificação de Documentos é um problema no qual um documento em linguagem natural deve ser designado como pertencente à uma das classes pré-estabelecidas. A Classificação de Documentos, com vetores de características gerados pela Bag-of-Words, possui duas dificuldades notáveis: alta dimensionalidade e matriz de dados esparsa. Seleção de características reduzem essas dificuldades, mas descarta informação no processo. Uma alternativa é realizar transformações sobre as características, pois ao alterar as características é possível trabalhar sem descartar informações, possibilitando uma melhoria nas taxas de reconhecimento e, em alguns casos, redução da dimensionalidade e esparsidade. Dentre essas transformações, duas pouco utilizadas na literatura são: Dissimilarity Representation (DR), no qual cada documento é representado por um vetor composto de distâncias calculadas com relação a um conjunto de documentos referência; e Dichotomy Transformation (DT), no qual o problema original é transformado em um problema binário e cada documento é transformado em vários vetores com características obtidas pelo valor absoluto da diferença para os documentos de um subconjunto do conjunto original. A utilização da DR pode reduzir tanto a alta dimensionalidade quanto a esparsidade. Enquanto que a utilização da DT, apesar de não reduzir a dimensionalidade ou esparsidade, melhora as taxas de reconhecimento do classificador, pois trabalha com uma quantidade maior de documentos sobre um problema transformado para duas classes. Neste trabalho, são propostos dois sistemas de múltiplos classificadores para Classificação de Documentos: Combined Dissimilarity Spaces (CoDiS) e Combined Dichotomy Transformations (CoDiT), cada um baseado em uma das transformações citadas acima. Os múltiplos classificadores se beneficiam da necessidade de encontrar um conjunto para as transformações, pois utilizando diferentes conjuntos possibilita a criação de um sistema diverso e robusto. Experimentos foram realizados comparando as arquiteturas propostas com métodos da literatura usando até 47 bancos de dados públicos e os resultados mostram que as propostas atingem desempenho superior na maioria dos casos. / Text Classification is a problem in which a natural language document is assigned to oneof the pre-establishedclasses. TextClassification, with featurevectorsgenerated byBagof-Words, has two notable difficulties: high dimensionality and sparse data matrix. Feature selection reduces these difficulties, but discards information in the process. An alternative is to perform transformations over the features, because by altering the features it is possible to work without discarding information, allowing improvement of recognition rates and, in some cases, reduction of dimensionality and sparseness. Among these transformations, two underused in literature are: Dissimilarity Representation (DR), where each document is represented by a vector composed of distances calculated relative to a set of reference documents; and Dichotomy Transformation (DT), where the original problem is transformed into a binary problem and each document is transformed into several vectors with features obtained by the absolute value of the difference for the documents of a subset of the original set. The use of DR can reduce both the high dimensionality and sparseness. Whereas the use of DT, despite not reducing dimensionality or sparseness, improves the recognition rates of the classifier, since it works with a larger amount of documents on a problem transformed into two classes. In this work, two multiple classifiers systems for Text Classificationa reproposed: Combined Dissimilarity Spaces (CoDiS) and Combined Dichotomy Transformations (CoDiT), each one based on the transformations mentioned above. The multiple classifiers benefits from the need to find a set for the transformations, because using different sets allows the creation of a diverse and robust system. Experiments were performed comparing the proposed architectures with literature methods using up to 47 public data bases and the results show that the proposals achieve superior performance in most cases.
|
46 |
A Bayesian framework for object recognition under severe occlusionGUERRERO PEÑA, Fidel Alejandro 22 February 2017 (has links)
PEÑA, Fidel Alejandro Guerrero também é conhecido em citações bibliográficas por: GUERRERO-PEÑA, Fidel Alejandro / Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T18:34:38Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Fidel Alenjandro Guerrero Peña.pdf: 3548161 bytes, checksum: 0af5697d578c29adf24e374dac93cf4f (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:16:04Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Fidel Alenjandro Guerrero Peña.pdf: 3548161 bytes, checksum: 0af5697d578c29adf24e374dac93cf4f (MD5) / Made available in DSpace on 2018-07-26T21:16:04Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Fidel Alenjandro Guerrero Peña.pdf: 3548161 bytes, checksum: 0af5697d578c29adf24e374dac93cf4f (MD5)
Previous issue date: 2017-02-22 / CNPq / Shape classification has multiple applications. In real scenes, shapes may contain severe occlusions, hardening the identification of objects. In this work, a bayesian framework for object recognition under severe and varied conditions of occlusion is proposed. The proposed framework is capable of performing three main steps in object recognition: representation of parts, retrieval of the most probable objects and hypotheses validation for final object identification. Occlusion is dealt with separating shapes into parts through high curvature points, then tangent angle signature is found for each part and continuous wavelet transform is calculated for each signature in order to reduce noise. Next, the best matching object is retrieved for each part using Pearson’s correlation coefficient as query prior, indicating the similarity between the part representation and of the most probable object in the database. For each probable class, an ensemble of Hidden Markov Model (HMM) is created through training with the one-class approach. A sort of search space retrieval is created using class posterior probability given by the ensemble. For occlusion likelihood, an area term that measure visual consistency between retrieved object and occlusion is proposed. For hypotheses validation, a area constraint is set to enhance recognition performance eliminating duplicated hypotheses. Experiments were carried out employing several real world images and synthetical generated occluded objects datasets using shapes of CMU_KO and MPEG-7 databases. The MPEG-7 dataset contains 1500 test shape instances with different scenarios of object occlusion with varied levels of object occlusion, different number of object classes in the problem, and different number of objects in the occlusion. For real images experimentation the CMU_KO challenge set contains 8 single view object classes with 100 occluded objects per class for testing and 1 non occluded object per class for training. Results showed the method not only was capable of identifying highly occluded shapes (60%-80% overlapping) but also present several advantages over previous methods. The minimum F-Measure obtained in MPEG-7 experiments was 0.67, 0.93 and 0.92, respectively and minimum AUROC of 0.87 for recognition in CMU_KO dataset, a very promising result due to complexity of the problem. Different amount of noise and varied amount of search space retrieval visited were also tested to measure framework robustness. Results provided an insight on capabilities and limitations of the method, demonstrating the use of HMMs for sorting search space retrieval improved efficiency over typical unsorted version. Also, wavelet filtering consistently outperformed the unfiltered and sampling noise reduction versions under high amount of noise. / A classificação da forma tem múltiplas aplicações. Em cenas reais, as formas podem conter oclusões severas, tornando difícil a identificação de objetos. Neste trabalho, propõe-se uma abordagem bayesiana para o reconhecimento de objetos com oclusão severa e em condições variadas. O esquema proposto é capaz de realizar três etapas principais no reconhecimento de objetos: representação das partes, recuperação dos objetos mais prováveis e a validação de hipóteses para a identificação final dos objetos. A oclusão é tratada separando as formas em partes através de pontos de alta curvatura, então a assinatura do ângulo tangente é encontrada para cada parte e a transformada contínua de wavelet é calculada para cada assinatura reduzindo
o ruído. Em seguida, o objeto mais semelhante é recuperado para cada parte usando o coeficiente de correlação de Pearson como prior da consulta, indicando a similaridade entre a representação da parte e o objeto mais provável no banco de dados. Para cada classe provável, um sistema de múltiplos classificadores com Modelos Escondido de Markov (HMM) é criado através de treinamento com a abordagem de uma classe. Um ordenamento do espaço de busca é criada usando a probabilidade a posterior da classe dada pelos classificadores. Como verosimilhança de oclusão, é proposto um termo de área que mede a consistência visual entre o objeto recuperado e a oclusão. Para a validação de hipóteses, uma restrição de área é definida para melhorar
o desempenho do reconhecimento eliminando hipóteses duplicadas. Os experimentos foram realizados utilizando várias imagens do mundo real e conjuntos de dados de objetos oclusos gerados de forma sintética usando formas dos bancos de dados CMU_KO e MPEG-7. O conjunto de dados MPEG-7 contém 1500 instâncias de formas de teste com diferentes cenários de oclusão por exemplo, com vários níveis de oclusões de objetos, número diferente de classes de objeto no problema e diferentes números de objetos na oclusão. Para a experimentação de imagens reais, o desafiante conjunto CMU_KO contém 8 classes de objeto na mesma perspectiva com 100 objetos ocluídos por classe para teste e 1 objeto não ocluso por classe para treinamento. Os resultados mostraram que o método não só foi capaz de identificar formas altamente ocluídas (60% - 80% de sobreposição), mas também apresentar várias vantagens em relação aos métodos anteriores. A F-Measure mínima obtida em experimentos com MPEG-7 foi de 0.67, 0.93 e 0.92, respectivamente, e AUROC mínimo de 0.87 para o reconhecimento no conjunto de dados CMU_KO, um resultado muito promissor devido à complexidade do problema. Diferentes quantidades de ruído e quantidade variada de espaço de busca visitado também foram testadas para medir a robustez do método. Os resultados forneceram uma visão sobre as capacidades e limitações do método, demonstrando que o uso de HMMs para ordenar o espaço de busca melhorou a eficiência sobre a versão não ordenada típica. Além disso, a filtragem com wavelets superou consistentemente as versões de redução de ruído não filtradas e de amostragem sob grande quantidade de ruído.
|
47 |
Algoritmos bio-inspirados para solução de problemas de otimizaçãoBARBOSA, Carlos Eduardo Martins 09 May 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:10:42Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T22:19:29Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) / Made available in DSpace on 2018-07-26T22:19:29Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5)
Previous issue date: 2017-05-09 / Muitos problemas do mundo real podem ser formulados como problemas de otimização em domínios contínuos. Nos últimos anos, algoritmos bio-inspirados, que fundamentam-se no comportamento dos fenômenos naturais, têm sido cada vez mais empregados para resolver tais problemas. Neste trabalho, são investigados 8 (oito) algoritmos inspirados na natureza: algoritmos genéticos (GA), otimização por colônia de formigas (ACO), otimização por enxame de partículas (PSO), colônia de abelhas artificiais (ABC), algoritmo do vaga-lume (FA), algoritmo de busca do pássaro cuco (CS), algoritmo do morcego (BAT) e algoritmo de busca autoadaptativa do pássaro cuco (SACS). Estes algoritmos são analisados em três tipos de problemas distintos, que compreendem (1) funções de benchmark estudadas comumente em problemas de otimização, (2) previsão da energia eólica a partir da velocidade do vento com dados reais coletados de dois parques eólicos, e (3) clusterização de padrões, necessária na solução de problemas não-supervisionados. Os experimentos realizados com os diferentes algoritmos analisaram as principais vantagens e deficiências dos algoritmos em relação à (1) qualidade das soluções obtidas segundo métricas de desempenho específicas para cada problema, (2) tempo de execução do algoritmo e (3) tempo de convergência para a melhor solução. Uma técnica de ajuste automático dos parâmetros, também bio-inspirada, foi desenvolvida e empregada em todos os problemas e algoritmos, para se determinar os valores ótimos para cada método e permitir uma comparação consistente dos resultados. Os experimentos realizados evidenciaram que o algoritmo do pássaro cuco funciona de forma eficiente, robusta e superior aos outros métodos investigados para a maioria dos experimentos realizados, e que a propriedade de cauda longa da distribuição com voos de Lévy, explorada neste trabalho, é a principal responsável pela eficiência deste algoritmo. / Many real-world problems can be formulated as optimization problems in continuous domains. In the last years, bio-inspired algorithms, whice are based on the behavior of natural phenomena, have been increasingly employed to solve such problems. In this work, 8 (eight) algorithms inspired by nature are investigated: genetic algorithms (GA), ant colony optimization (ACO), particle swarm optimization (PSO), artificial bee colony (ABC), firefly algorithm (FA), cuckoo search algorithm (CS), bat algorithm (BAT) and self-adaptive cuckoo search algorithm (SACS). These algorithms are analyzed in three different types of problems, which comprise (1) benchmark functions commonly studied in optimization problems, (2) prediction of wind energy from wind speed with real data collected from two wind farms, and clustering patterns, required in solving unsupervised problems. The experiments performed with the different algorithms investigated the main advantages and disadvantages of the algorithms concerning (1) the quality of the solutions obtained according to specific metrics for each problem, (2) algorithm execution time and (3) convergence time for the best solution. A bio-inspired technique of automatic parameter tuning was developed and employed in all problems and algorithms in order to determine optimal values for each method and to allow a consistent comparison of the results. The performed experiments showed that the cuckoo search algorithm works efficiently, robustly and superior to the other investigated methods for most of the experiments, and the long tail property of the Lévy Flight distribution, explored in this work, is the main responsible for the efficiency of this algorithm.
|
48 |
Um Chatterbot para criação e desenvolvimento de ontologias com lógica de descriçãoLIMA, Carlos Eduardo Teixeira 07 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T17:51:07Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Carlos Eduardo Teixeira Lima.pdf: 2565674 bytes, checksum: f73ab55a801cb3313ce696862db86b3d (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T17:24:57Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Carlos Eduardo Teixeira Lima.pdf: 2565674 bytes, checksum: f73ab55a801cb3313ce696862db86b3d (MD5) / Made available in DSpace on 2018-07-27T17:24:57Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Carlos Eduardo Teixeira Lima.pdf: 2565674 bytes, checksum: f73ab55a801cb3313ce696862db86b3d (MD5)
Previous issue date: 2017-03-07 / Chatterbots são aplicações que têm como objetivo simular uma conversa real com um ser humano, de forma com que eles se comportem também como humanos. A principal ideia em questão é fazer como que as duas partes do diálogo conversem sobre um determinado domínio de conhecimento, de forma que a conversa gire inteligentemente em torno deste domínio. A partir de um diálogo são emitidas diversas informações que podem, e devem ser relevantes para o domínio em questão. Assim, essas informações consequentemente geram conhecimento e aprendizado por meio das partes envolvidas no diálogo. Isso é bastante comum nas conversas de chat, fazendo com que sejam bastante utilizadas como fonte de conhecimento. De acordo com Thomas Gruber (1993), ontologia é uma especificação explícita de uma conceitualização. É um recurso de grande utilidade para representação de conhecimento. A ontologia encontra-se em nível de abstração tão alto, que a mesma estabelece uma terminologia comum e não ambígua para o domínio em questão. Isso faz com que ela seja um recurso fortemente adequado para seu uso como modelo de dados, uma vez que a representação dos conceitos do domínio proposto “ensina” o chatterbot, possibilitando a realização de inferências sobre os objetos, e o torna apto para conversar com o usuário de maneira mais natural possível. Existe um grande desafio no que diz respeito a extração de conhecimento a partir de linguagem na natural, uma vez que há uma variabilidade na forma como as pessoas escrevem e falam. Isso dificulta a obtenção de conhecimento por meio dos chatterbots a partir de linguagem natural. O objetivo geral deste projeto é demostrar que a construção e representação do conhecimento decorrentes de diálogos entre pessoas e chatterbots é uma solução viável para o processo de aquisição de um modelo de domínio baseado em ontologias, modelado em lógica de descrição. / Chatterbots are applications that aim to simulate a real conversation with a to be human, so that they also behave like humans. The main idea in issue is to make the two sides of the dialogue talk about a given domain of knowledge, so that the talk revolves intelligently around this domain. From a dialogue, a variety of information is issued that can, and should be, relevant to the domain in question. Thus, this information knowledge and learning through the parties involved in the dialogue. This is quite common in chat conversations, making them widely used as a source of knowledge. According to Thomas Gruber (1993), ontology is an explicit specification of a conceptualization. It is a very useful resource for representing knowledge. The ontology is at such a high level of abstraction that it establishes a terminology common and unambiguous for the domain in question. This makes it a strongly suitable for its use as a data model, since the representation of the concepts of the proposed domain "teaches"chatterbot, making it possible to make inferences on the objects, and makes it apt to talk to the user as naturally as possible. There is a great challenge regarding the extraction of knowledge from natural language, since there is a variability in the way people write and speak. This makes it difficult to obtain knowledge through chatterbots from natural language. The general objective of this project is to demonstrate that the construction and knowledge arising from dialogues between people and chatterbots is a viable solution for the process of acquisition of an ontology-based domain model, modeled on description.
|
49 |
Um método de expansão de ontologias baseado em questões de competência com rastreabilidade automáticaBARBOSA, Yuri de Almeida Malheiros 23 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:39:07Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Yuri de Almeida Malheiros Barbosa.pdf: 4161630 bytes, checksum: 427bdb7ccc86c95f09ed2777ee60779c (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-31T18:15:52Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Yuri de Almeida Malheiros Barbosa.pdf: 4161630 bytes, checksum: 427bdb7ccc86c95f09ed2777ee60779c (MD5) / Made available in DSpace on 2018-07-31T18:15:52Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Yuri de Almeida Malheiros Barbosa.pdf: 4161630 bytes, checksum: 427bdb7ccc86c95f09ed2777ee60779c (MD5)
Previous issue date: 2017-02-23 / Questões de competência possuem um papel importante no ciclo de desenvolvimento de ontologias. Elas são amplamente usadas para definir requisitos de ontologias, entretanto a maioria das metodologias de desenvolvimento não especifica como a checagem dos requisitos deve ser feita ou apenas sugere que as questões sejam verificadas manualmente. Assim, faltam ferramentas que suportem checagem automática, inclusive utilizando raciocinadores, que podem agilizar o desenvolvimento e melhorar a qualidade das ontologias produzidas. Além disso, a rastreabilidade de requisitos raramente é explorada, mesmo essa atividade sendo estudada e utilizada por anos na engenharia de software. Nesse trabalho são introduzidos um método iterativo para expansão de ontologias usando questões de competência e uma ferramenta que implementa o método. Várias inovações são apresentadas: um componente que traduz questões de competência em linguagem natural para lógica de descrição para efetuar checagem automática usando raciocinadores; um gerador de questões de competência para guiar engenheiros durante o desenvolvimento; um componente que escreve código OWL de acordo com perguntas e respostas; um rastreador que monitora as relações entre requisitos e código e vice-versa; e um método que integra todos os pontos anteriores, criando uma maneira iterativa de expandir ontologias através de perguntas e respostas semelhante a um diálogo controlado. Para avaliar o método proposto e sua implementação foram executados testes com a ontologia SNOMED CT para analisar o comportamento dos componentes criados. Também foram realizados dois estudos de caso para avaliar o uso da ferramenta por usuários. Os testes mostraram a capacidade do método em checar e adicionar conhecimento a uma ontologia. Foi possível criar perguntas para checar todos os axiomas escolhidos da SNOMED CT e a implementação conseguiu sugerir perguntas para adicionar conhecimento à ontologia em 69,1% dos casos. Os estudos de caso levantaram os pontos fortes e fracos da implementação, mostrando o potencial da implementação em melhorar o desenvolvimento de ontologias, pois a interação através de linguagem natural é simples tanto para checagem quanto para adição de axiomas, mesmo para usuários leigos, e a rastreabilidade de requisitos grava e apresenta informações importantes para o engenheiro de ontologias. / Competency questions have an important role in the development of ontologies. Usually, they are used as ontology requirements, however many ontology development methodologies do not detail how to check the requirements or only suggest checking the questions manually. Thus, there is a lack of tools to check competency questions automatically, including using reasoners, that could make the development faster and could improve the quality of ontologies. Furthermore, requirement traceability for ontology engineering is rarely explored, even though it is studied and used by software engineers for years. In this work, we introduce an iterative method to expand ontologies using competency questions, and a tool that implements this method. Many novel approaches are presented: a component that translates natural language competency questions to description logics to check them automatically using reasoners; a component that generates competency questions to guide engineers; a component that writes OWL code using questions and answers; a tracker that monitors the relations among requirements and code and vice-versa; and a method that integrates all previous components to create an iterative way to expand ontologies using questions and answers similar to a controlled dialogue. To evaluate the method and its implementation we ran tests using the SNOMED CT ontology to analyze the behavior of the developed components. Also, we did two case studies, thus users could evaluate the tool. The tests showed the capacity of the method to check and add knowledge to an ontology. We could create questions to check all chosen axioms of SNOMED CT, and the implementation was able to suggest questions to add knowledge in 69,1% of cases. The case studies exposed the strength and weakness of the implementation. They showed the implementation potential to improve the ontology development, because it is simple to interact using natural language to check and to add axioms, even for non-experts users. Also, the requirement traceability stores and presents important information for the ontology engineers.
|
50 |
Restauração de imagens através de reflexos especularesQUEIROZ, Fabiane da Silva 10 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-01T20:32:26Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Fabiane da Silva Queiroz.pdf: 3559338 bytes, checksum: 6ad099d902a78d31ff0e24d1bb055ef6 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-02T20:06:22Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Fabiane da Silva Queiroz.pdf: 3559338 bytes, checksum: 6ad099d902a78d31ff0e24d1bb055ef6 (MD5) / Made available in DSpace on 2018-08-02T20:06:22Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Fabiane da Silva Queiroz.pdf: 3559338 bytes, checksum: 6ad099d902a78d31ff0e24d1bb055ef6 (MD5)
Previous issue date: 2017-02-10 / A restauração cega de imagens corrompidas por borramento é um problema inverso clássico da área de Processamento de Imagens e Visão Computacional. Um processo de restauração de imagens é definido como cego, quando desconhecemos tanto a imagem original não corrompida quanto a Função de Espalhamento de Ponto da degradação (PSF – Point Spread Function) e o ruído envolvido neste processo. Imagens de endoscopia óptica são comumente afetadas por borramento devido à movimentação da câmera no processo de captura ou a movimentos involuntários da superfície do tecido do trato gastrointestinal. Nesta tese propomos um novo método de restauração cega de imagens de endoscopia óptica. Para tanto, nós exploramos o uso de reflexos especulares, que constituem outro tipo de degradação muito comum nesse tipo de imagem, e que por sua vez, são utilizados como informação a priori no processo de estimativa da PSF do borramento. Sendo assim, o método aqui proposto pode ser dividido em duas etapas. A primeira etapa consiste de um novo método de segmentação precisa de reflexos especulares que podem, por sua vez, conter ricas informações sobre a degradação sofrida pela imagem. A segunda etapa consiste de um novo método de estimação da PSF da degradação, no qual a mesma é inferida através do agrupamento e fusão dos reflexos segmentados previamente. Observamos que a fusão de reflexos especulares não fere os pré-requisitos de que a PSF estimada deve ser esparsa, positiva e com um tamanho pequeno quando comparado ao tamanho da imagem sendo restaurada. Além disso, uma vez que sabemos que tais reflexos podem conter informações relevantes do processo de borramento, mostramos que quando fundidos, estes podem ser utilizados na estimação da PSF do borramento, produzindo assim resultados satisfatórios de imagens restauradas quando estas são comparadas à imagens restauradas por métodos do estado da arte, sendo a qualidade das imagens restauradas pelo método aqui proposto muitas vezes superior ou equivalente aos trabalhos comparados. / Blind image deconvolution (blind image deblurring or blind image restoration) is a classical inverse problem of Image Processing and Computer Vision. In a blind deconvolution process, the original uncorrupted image and and the Point Spread Function (PSF) of the degradation are unknown. Images of optic endoscopy are commonly affected by blur due camera movements during the image capture process or due involuntary movements of the gastrointestinal tissue. In this work, we propose a new blind deconvolution method of optical endoscopy blurred images. We explore the use of specular reflections that are a very common degradation in this type of images. These reflections are used as a prior information to the PSF estimation process. The proposed method can be divided into two stages. The first stage consists of a new method to perform a precise segmentation of specular reflections. The second step consists of a new estimation method of the PSF. This PSF is inferred by grouping and fusion of specular reflections previously segmented. We observed that the proposed method of fusion of theses reflections meets the prerequisites that the estimated PSF must be sparse, positive and have a small size when compared with the blurred image size. Also, since we know that these reflections may contain relevant information about the degradation, we show that when fused, they may be used in the estimation of the PSF producing satisfactory results where, in many cases, the quality of the images restored by the proposed method is superior or equal to the images restored by other state-of-the-art methods.
|
Page generated in 0.0643 seconds