Spelling suggestions: "subject:"inteligência artificial"" "subject:"inteligência aartificial""
31 |
Um processo para classificação de sentimentos no twitter utilizando termos factuais e retweetsOLIVEIRA, Gleibson Rodrigo Silva de 01 July 2014 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-05-13T17:35:12Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertacao - Gleibson Oliveira.pdf: 1128535 bytes, checksum: 58357adabe3c7e05194c892a9e5f46fd (MD5) / Made available in DSpace on 2016-05-13T17:35:12Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertacao - Gleibson Oliveira.pdf: 1128535 bytes, checksum: 58357adabe3c7e05194c892a9e5f46fd (MD5)
Previous issue date: 2014-07-01 / CNPQ / A internet hoje pode ser considerada uma das maiores bases de informações do mundo, acessível para qualquer pessoa. Com sua popularização e o crescimento da necessidade de produção de conteúdo, popularizam-se também os blogs e principalmente as redes sociais, onde milhões de usuários trocam informações e opinam sobre os mais diferentes assuntos. Opiniões, por sua vez, são de grande valia no processo decisório, seja de empresas ou de pessoas físicas. Entretanto, o crescimento vertiginoso dessas informações na internet torna o trabalho de obter uma opinião geral acerca de um determinado assunto uma tarefa complicada, sobretudo se for realizada de forma manual. Uma solução automatizada apresenta-se como a melhor saída. Cresce, então, uma área bastante utilizada para construção de sistemas que tratam opinião de forma automatizada, a Análise de Sentimento (AS), também nomeada de Mineração de Opinião. Seu objetivo é classificar textos, sentenças ou blocos de texto como positivos ou negativos acerca da opinião a respeito de algum objeto, seja este um produto, serviço ou até mesmo uma pessoa. Muitos trabalhos foram propostos na área de Análise de Sentimentos, provendo avaliações da opinião global ou detalhada (para cada característica) a respeito do objeto analisado. Entretanto, a grande maioria dos trabalhos obtém a opinião de uma característica do objeto através da análise do adjetivo associado a mesma. O trabalho aqui proposto busca expandir essa análise para as demais palavras, incluindo substantivos e palavras de outras classes gramaticais que possam indicar opinião acerca do objeto. O processo proposto utiliza como fonte de opiniões o debate político polarizado, onde os usuários, potenciais eleitores, se posicionam em um dos lados da disputa. Os dados foram coletados do micro blog Twitter [TWITTER, 2006] até o horário de início das votações. O processo tem como objetivo incluir termos pouco abordados na literatura como representadas das opiniões dos usuários, evitando assim a eliminação sumária de parte do corpus analisado. / Nowadays, the internet can be considered one of the largest databases of information in the world, accessible to anyone. With its popularity and growth of the need to produce content, also become popular, blogs and especially social networks, where millions of users exchange information and think of the most different subjects. Opinions, in turn, are of great value in the decision making process, whether companies or individuals. However, the rapid growth of such information on the Internet makes work to get a general opinion about a given subject a complicated task, particularly if performed manually. An automated solution is presented as a best option. Grows, then a quite area used to build systems that handle automated opinion, the Sentiment Analysis (SA), also named Mining Opinion. Your goal is to classify texts, sentences or blocks of text as positive or negative opinion about any object, be it a product, service or even a person. Many works have been proposed in the area of sentiment analysis, providing assessments of global or detailed view (for each feature) about the analyzed object. However, the vast majority of researchs get the opinion of a characteristic of the object by analyzing the adjective associated with it. The work proposed here seeks to expand this analysis to other words, including nouns and other grammatical classes of words that may indicate opinion about the object. The proposed process uses polarized political debate as a source of opinions, where users, potential voters, are positioned on one side of the race. Data were collected from the micro blog Twitter [TWITTER, 2006] until the start time of voting. The process aims to include terms used poorly in the literature as represented the views of users, thus avoiding the summary disposal of the analyzed corpus.
|
32 |
Seleção multiobjetivo de casos de teste utilizando técnicas de busca híbridasSOUZA, Luciano Soares de 11 March 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-29T16:27:00Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
SELEÇÃO MULTIOBJETIVO DE CASOS DE TESTE UTILIZANDO TÉNICAS D.pdf: 2504671 bytes, checksum: 3fa2f78b63cef5f656bf1a2897b15ec3 (MD5) / Made available in DSpace on 2017-11-29T16:27:00Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
SELEÇÃO MULTIOBJETIVO DE CASOS DE TESTE UTILIZANDO TÉNICAS D.pdf: 2504671 bytes, checksum: 3fa2f78b63cef5f656bf1a2897b15ec3 (MD5)
Previous issue date: 2016-03-11 / CAPES / O processo de geração automática de casos de teste de software pode produzir grandes suítes que podem ser custosas para executar. Por causa disso, é necessária uma forma de selecionar um subconjunto de casos de teste de forma a adequar a execução dos testes aos recursos disponíveis no ambiente de testes. Essa tarefa é conhecida como seleção de casos de teste. Assim como a execução dos testes, a seleção de casos de teste pode ser custosa, pois normalmente é realizada de forma manual. Além disso, essa tarefa não é trivial, pois a mesma é equivalente ao problema NP-Completo de cobertura de conjuntos. Portanto, técnicas de busca são indicadas na resolução desse tipo de problema. Essa área de pesquisa é conhecida como Engenharia de Software Baseada em Busca. A maioria dos trabalhos relacionados aos testes de software dentro dessa área consideram apenas um único critério de seleção (objetivo). Entretanto, em alguns ambientes de testes é necessário atender a mais de um objetivo durante o processo de seleção. Nesses casos o problema de seleção é considerado como multicritério (ou multiobjetivo). Dentro desse contexto, o presente trabalho propôs novas técnicas de busca (híbridas e não híbridas) para a seleção multiobjetivo de casos de teste. Essas técnicas foram comparadas (através de experimentos controlados) em relação à qualidade das fronteiras de Pareto retornadas e em relação à capacidade de detecção de falhas. Adicionalmente, restrições impostas pelo ambiente de testes foram consideradas e técnicas híbridas com mecanismos de tratamento de restrições foram propostas e comparadas. Por fim, das técnicas propostas a técnica BSMPSO-FB (Binary Speed-constrained Multi-objective Particle Swarm Optimization with Forward Selection and Backward Elimination) foi a que obteve melhores resultados. / The automatic test generation process can produce large test suites that can be very expensive to execute. Because of this, it is necessary to select a subset of test cases in order to fit the test execution to the available resources. This task is known as test case selection. Like manual test execution, test case selection can be very expensive because it, is usually performed by humans. Furthermore, this is not a trivial task because it is equivalent to the NP-Complete set covering problem. Hence, search techniques are well suited to deal with this problem. This research area is known as Search Based Software Engineering. Most of the test case selection works considers only one criterion (objective) at a time. But, some test environments need to consider more the one objective during the test case selection. In this light, the problem is referred as multi-criteria search (or multi-objective). According to this scenario, this work proposed new search techniques (hybrid and non hybrid) for multi-objective test case selection. These techniques were compared
(through controlled experiments) by considering the quality of the returned Pareto frontiers and its faults detection ability. Furthermore, environments constraints were considered and new hybrid techniques with constraints treatment mechanisms were proposed and evaluated. In the end the BSMPSO-FB (Binary Speed-constrained Multi-objective Particle Swarm Optimization with Forward Selection and Backward Elimination) technique was the one with the best results.
|
33 |
Um sistema de diálogo inteligente baseado em lógica de descriçõesAZEVEDO, Ryan Ribeiro de 09 March 2015 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2018-04-13T21:15:35Z
No. of bitstreams: 1
TESE Ryan Ribeiro de Azevedo.pdf: 5788437 bytes, checksum: e699d3b5b7abb47ba1cb965d8c220e0e (MD5) / Made available in DSpace on 2018-04-13T21:15:35Z (GMT). No. of bitstreams: 1
TESE Ryan Ribeiro de Azevedo.pdf: 5788437 bytes, checksum: e699d3b5b7abb47ba1cb965d8c220e0e (MD5)
Previous issue date: 2015-03-09 / CNPQ / Abordagens baseadas em Processamento de Linguagem Natural, a exemplo de sistemas de diálogos – os quais funcionam respondendo de maneira breve e superficial a perguntas realizadas pelos usuários –, assim como, os sistemas baseados em técnicas de Aprendizado de Ontologias, utilizados para construção semi-automática de ontologias a partir de texto, são largamente encontrados na Web e possuem capacidade de realizar raciocínio automático, bem como, representar conhecimento. Estas capacidades – as de raciocinar e representar conhecimento - são questionáveis e consideradas como limitadas. Este quadro situacional leva nossa exploração a um novo paradigma de sistemas de diálogo, qual seja: um sistema que dialoga, aprende por dedução e representa conhecimento em Lógica de Descrições de múltiplos domínios. Desenvolver um sistema de diálogo inteligente, batizado como Renan, concebido para a criação semi-automática de ontologias – que interage com usuários em linguagem natural, formalizando e codificando conhecimento em lógica de descrições e, principlamente, com capacidade de aprender e de realizar raciocínio automático, a partir dessas interações com os usuários – pode consistir numa solução viável e efetiva na automatização do processo de construção de ontologias expressívas e de boa qualidade. Os resultados alcançados demonstraram que Renan consiste em uma solução eficiente para: (1) Representação de Conhecimento; portanto, formaliza e modela domínios de conhecimento em uma linguagem expressiva e padrão da Web Semântica, a partir de interações em linguagem natural controlada com usuários. (2) Raciocínio Automático; a abordagem permite que novos fatos sejam deduzidos a partir de outros, realizando raciocínio de subsunção, bem como, de inconsistências, verificando fatos contraditórios nas bases de conhecimento construídas durante as interações com seus usuários. Renan, contribui para com o avanço do estado da arte provendo, portanto, uma solução adequada e efetiva na construção automática de ontologias expressivas (expressividade máxima ALC – Attributive Concept Language with Complements) e raciocinio automático, a partir de interações em linguagem natural com seres humanos. Renan permite a identificação de axiomas e modificação destes. Além disso, realiza raciocínio de subsunção, deduzindo novos fatos a partir de outros, assim como, a verificação de inconsistências nestes fatos durante as interações com seus usuários. Também incluímos em nossas conclusões que nossa abordagem contribui para os engenheiros de ontologias e desenvolvedores, além de usuários inexperientes/leigos interessados no seu desenvolvimento. / Approaches based on Natural Language Processing, like dialogue systems - which work responding questions asked by users in a brief and superficial way - as well as systems based on Ontology Learning techniques, which are used for the construction of semi-automatic ontologies from text, are largely found on the Web and have the ability to perform automated reasoning, as well as representing knowledge. These capabilities – those of reason and knowledge representation – are questionable and considered limited. This situation leads our operation to a new dialogue system paradigm: a system able to dialogue, learn by deduction and represent knowledge in multiple domains of Description Login. To demonstrate that the dialogue system developed and called Renan, designed for semi-automatic ontologies creation, which interacts with users in natural language, formalizing and codifying knowledge in Description Logic and, mainly, with ability to learn and perform automated reasoning -from these interactions with users – may be a viable and effective solution for automating the building process of expressive and good quality ontologies. The results showed that Renan consists in an efficient solution for: (1) Knowledge Representation; therefore, formalizes and model knowledge domain in a standard and expressive language from the Web Semantic, through natural language interactions controlled by users. (2) Automatic Reasoning; the approach allows new facts to be deduced from others facts, performing reasoning subsumption as well as inconsistencies, checking contradictory facts in the knowledge bases built during interactions with their users. Renan, contributes to state of the art advancement, providing thus an appropriate and effective solution for the automatic construction of expressive ontologies (maximum expressiveness ALC - Attributive Concept Language with Complements) and automatic reasoning, from interactions in humans natural language. Renan enables the identification and modification of these axioms. In addition, performs subsumption reasoning by deducing new facts from another, checking for inconsistencies in these facts during interactions with their users as well. We also included in our conclusive considerations that our approach contributes to the ontologic engineers and developers, and inexperienced / laity interested in the development users.
|
34 |
Reconhecimento de expressões faciais utilizando estimação de movimentoSANTIAGO, Hemir da Cunha 07 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T21:40:31Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Hemir da Cunha Santiago.pdf: 2328852 bytes, checksum: fef592fcea41c2d4f8c811862b941d72 (MD5) / Made available in DSpace on 2018-06-25T21:40:31Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Hemir da Cunha Santiago.pdf: 2328852 bytes, checksum: fef592fcea41c2d4f8c811862b941d72 (MD5)
Previous issue date: 2017-02-07 / As expressões faciais fornecem informações sobre a resposta emocional e exercem um papel fundamental na interação humana e como forma de comunicação não-verbal. Contudo, o reconhecimento das expressões ainda é algo considerado complexo para o computador. Neste trabalho, propomos um novo extrator de características que utiliza a estimação de movimento para o reconhecimento de expressões faciais. Nesta abordagem, o movimento facial entre duas expressões é codificado usando uma estimação dos deslocamentos de regiões entre duas imagens, que podem ser da mesma face ou de faces similares. A imagem da expressão facial é comparada a outra imagem mais similar em cada expressão facial da base de treinamento, a maior similaridade é obtida usando a medida de Similaridade Estrutural (SSIM - Structural Similarity Index). Após a identificação das imagens mais similares na base de treinamento, são calculados os vetores de movimento entre a imagem cuja expressão facial será reconhecida e a outra mais similar em uma das expressões da base. Para calcular os vetores de movimento é proposto o algoritmo MARSA(Modified Adaptive Reduction of the Search Area). Todos os vetores de movimento são comparados às coordenadas com as maiores ocorrências dentre todos os vetores de movimento obtidos durante a fase de treinamento, a partir dessa comparação são gerados os vetores de características que servem de dados de entrada para uma SVM (Support Vector Machine),que irá realizar a classificação da expressão facial. Diversas bases de imagens e vídeos de faces, reproduzindo expressões faciais, foram utilizadas para os experimentos. O critério adotado para a escolha das bases foi a frequência com que são utilizadas em outros trabalhos do estado da arte, portanto foram escolhidas: Cohn-Kanade (CK), Extended Cohn-Kanade (CK+), Japanese Female Facial Expression (JAFFE), MMI e CMU Pose, Illumination, and Expression (CMU-PIE). Os resultados experimentais demostram taxas de reconhecimento das expressões faciais compatíveis a outros trabalhos recentes da literatura, comprovando a eficiência do método apresentado. / Facial expressions provide information on the emotional response and play an essential role in human interaction and as a form of non-verbal communication. However, there cognition of expressions is still something considered complex for the computer. In this work, it is proposed a novel feature extractor that uses motion estimation for Facial Expression Recognition (FER). In this approach, the facial movement between two expressions is coded using an estimation of the region displacements between two images, which may be of the same face or the like. The facial expression image is compared to another more similar image in each facial expression of the training base, the best match is obtained using the Structural Similarity Index (SSIM). After identifying the most similar images in the training base, the motion vectors are calculated between the reference image and the other more similar in one of the expressions of the base. To calculate the motion vectors is proposed the MARSA (Modified Adaptive Reduction of the Search Area) algorithm. All motion vectors are compared to the coordinates with the highest occurrences of all motion vectors obtained during the training phase, from this comparison the feature vectors are generated that serve as input data for a SVM (Support Vector Machine), which will perform the classification of facial expression. Several databases of images and videos of faces reproducing facial expressions were used for the experiments, the adopted criteria for selection of the bases was the frequency which they are used in the state of the art, then were chosen: CohnKanade (CK), Extended Cohn-Kanade (CK+), Japanese Female Facial Expression (JAFFE), MMI, and CMU Pose, Illumination, and Expression (CMU-PIE). The experimental results demonstrate that there cognition rates of facial expressions are compatible to recent literature works proving the efficiency of the presented method.
|
35 |
Combinação de classificadores em diferentes espaços de características para classificação de documentosPINHEIRO, Roberto Hugo Wanderley 17 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T22:35:53Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Roberto Hugo Wanderley Pinheiro.pdf: 6289465 bytes, checksum: 9baff75de0aed82ef29265d6f5c36b1f (MD5) / Made available in DSpace on 2018-06-25T22:35:53Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Roberto Hugo Wanderley Pinheiro.pdf: 6289465 bytes, checksum: 9baff75de0aed82ef29265d6f5c36b1f (MD5)
Previous issue date: 2017-02-20 / FACEPE / Classificação de Documentos é um problema no qual um documento em linguagem natural deve ser designado como pertencente à uma das classes pré-estabelecidas. A Classificação de Documentos, com vetores de características gerados pela Bag-of-Words, possui duas dificuldades notáveis: alta dimensionalidade e matriz de dados esparsa. Seleção de características reduzem essas dificuldades, mas descarta informação no processo. Uma alternativa é realizar transformações sobre as características, pois ao alterar as características é possível trabalhar sem descartar informações, possibilitando uma melhoria nas taxas de reconhecimento e, em alguns casos, redução da dimensionalidade e esparsidade. Dentre essas transformações, duas pouco utilizadas na literatura são: Dissimilarity Representation (DR), no qual cada documento é representado por um vetor composto de distâncias calculadas com relação a um conjunto de documentos referência; e Dichotomy Transformation (DT), no qual o problema original é transformado em um problema binário e cada documento é transformado em vários vetores com características obtidas pelo valor absoluto da diferença para os documentos de um subconjunto do conjunto original. A utilização da DR pode reduzir tanto a alta dimensionalidade quanto a esparsidade. Enquanto que a utilização da DT, apesar de não reduzir a dimensionalidade ou esparsidade, melhora as taxas de reconhecimento do classificador, pois trabalha com uma quantidade maior de documentos sobre um problema transformado para duas classes. Neste trabalho, são propostos dois sistemas de múltiplos classificadores para Classificação de Documentos: Combined Dissimilarity Spaces (CoDiS) e Combined Dichotomy Transformations (CoDiT), cada um baseado em uma das transformações citadas acima. Os múltiplos classificadores se beneficiam da necessidade de encontrar um conjunto para as transformações, pois utilizando diferentes conjuntos possibilita a criação de um sistema diverso e robusto. Experimentos foram realizados comparando as arquiteturas propostas com métodos da literatura usando até 47 bancos de dados públicos e os resultados mostram que as propostas atingem desempenho superior na maioria dos casos. / Text Classification is a problem in which a natural language document is assigned to oneof the pre-establishedclasses. TextClassification, with featurevectorsgenerated byBagof-Words, has two notable difficulties: high dimensionality and sparse data matrix. Feature selection reduces these difficulties, but discards information in the process. An alternative is to perform transformations over the features, because by altering the features it is possible to work without discarding information, allowing improvement of recognition rates and, in some cases, reduction of dimensionality and sparseness. Among these transformations, two underused in literature are: Dissimilarity Representation (DR), where each document is represented by a vector composed of distances calculated relative to a set of reference documents; and Dichotomy Transformation (DT), where the original problem is transformed into a binary problem and each document is transformed into several vectors with features obtained by the absolute value of the difference for the documents of a subset of the original set. The use of DR can reduce both the high dimensionality and sparseness. Whereas the use of DT, despite not reducing dimensionality or sparseness, improves the recognition rates of the classifier, since it works with a larger amount of documents on a problem transformed into two classes. In this work, two multiple classifiers systems for Text Classificationa reproposed: Combined Dissimilarity Spaces (CoDiS) and Combined Dichotomy Transformations (CoDiT), each one based on the transformations mentioned above. The multiple classifiers benefits from the need to find a set for the transformations, because using different sets allows the creation of a diverse and robust system. Experiments were performed comparing the proposed architectures with literature methods using up to 47 public data bases and the results show that the proposals achieve superior performance in most cases.
|
36 |
Um Chatterbot para criação e desenvolvimento de ontologias com lógica de descriçãoLIMA, Carlos Eduardo Teixeira 07 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T17:51:07Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Carlos Eduardo Teixeira Lima.pdf: 2565674 bytes, checksum: f73ab55a801cb3313ce696862db86b3d (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T17:24:57Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Carlos Eduardo Teixeira Lima.pdf: 2565674 bytes, checksum: f73ab55a801cb3313ce696862db86b3d (MD5) / Made available in DSpace on 2018-07-27T17:24:57Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
DISSERTAÇÃO Carlos Eduardo Teixeira Lima.pdf: 2565674 bytes, checksum: f73ab55a801cb3313ce696862db86b3d (MD5)
Previous issue date: 2017-03-07 / Chatterbots são aplicações que têm como objetivo simular uma conversa real com um ser humano, de forma com que eles se comportem também como humanos. A principal ideia em questão é fazer como que as duas partes do diálogo conversem sobre um determinado domínio de conhecimento, de forma que a conversa gire inteligentemente em torno deste domínio. A partir de um diálogo são emitidas diversas informações que podem, e devem ser relevantes para o domínio em questão. Assim, essas informações consequentemente geram conhecimento e aprendizado por meio das partes envolvidas no diálogo. Isso é bastante comum nas conversas de chat, fazendo com que sejam bastante utilizadas como fonte de conhecimento. De acordo com Thomas Gruber (1993), ontologia é uma especificação explícita de uma conceitualização. É um recurso de grande utilidade para representação de conhecimento. A ontologia encontra-se em nível de abstração tão alto, que a mesma estabelece uma terminologia comum e não ambígua para o domínio em questão. Isso faz com que ela seja um recurso fortemente adequado para seu uso como modelo de dados, uma vez que a representação dos conceitos do domínio proposto “ensina” o chatterbot, possibilitando a realização de inferências sobre os objetos, e o torna apto para conversar com o usuário de maneira mais natural possível. Existe um grande desafio no que diz respeito a extração de conhecimento a partir de linguagem na natural, uma vez que há uma variabilidade na forma como as pessoas escrevem e falam. Isso dificulta a obtenção de conhecimento por meio dos chatterbots a partir de linguagem natural. O objetivo geral deste projeto é demostrar que a construção e representação do conhecimento decorrentes de diálogos entre pessoas e chatterbots é uma solução viável para o processo de aquisição de um modelo de domínio baseado em ontologias, modelado em lógica de descrição. / Chatterbots are applications that aim to simulate a real conversation with a to be human, so that they also behave like humans. The main idea in issue is to make the two sides of the dialogue talk about a given domain of knowledge, so that the talk revolves intelligently around this domain. From a dialogue, a variety of information is issued that can, and should be, relevant to the domain in question. Thus, this information knowledge and learning through the parties involved in the dialogue. This is quite common in chat conversations, making them widely used as a source of knowledge. According to Thomas Gruber (1993), ontology is an explicit specification of a conceptualization. It is a very useful resource for representing knowledge. The ontology is at such a high level of abstraction that it establishes a terminology common and unambiguous for the domain in question. This makes it a strongly suitable for its use as a data model, since the representation of the concepts of the proposed domain "teaches"chatterbot, making it possible to make inferences on the objects, and makes it apt to talk to the user as naturally as possible. There is a great challenge regarding the extraction of knowledge from natural language, since there is a variability in the way people write and speak. This makes it difficult to obtain knowledge through chatterbots from natural language. The general objective of this project is to demonstrate that the construction and knowledge arising from dialogues between people and chatterbots is a viable solution for the process of acquisition of an ontology-based domain model, modeled on description.
|
37 |
Um método de expansão de ontologias baseado em questões de competência com rastreabilidade automáticaBARBOSA, Yuri de Almeida Malheiros 23 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:39:07Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Yuri de Almeida Malheiros Barbosa.pdf: 4161630 bytes, checksum: 427bdb7ccc86c95f09ed2777ee60779c (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-31T18:15:52Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Yuri de Almeida Malheiros Barbosa.pdf: 4161630 bytes, checksum: 427bdb7ccc86c95f09ed2777ee60779c (MD5) / Made available in DSpace on 2018-07-31T18:15:52Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Yuri de Almeida Malheiros Barbosa.pdf: 4161630 bytes, checksum: 427bdb7ccc86c95f09ed2777ee60779c (MD5)
Previous issue date: 2017-02-23 / Questões de competência possuem um papel importante no ciclo de desenvolvimento de ontologias. Elas são amplamente usadas para definir requisitos de ontologias, entretanto a maioria das metodologias de desenvolvimento não especifica como a checagem dos requisitos deve ser feita ou apenas sugere que as questões sejam verificadas manualmente. Assim, faltam ferramentas que suportem checagem automática, inclusive utilizando raciocinadores, que podem agilizar o desenvolvimento e melhorar a qualidade das ontologias produzidas. Além disso, a rastreabilidade de requisitos raramente é explorada, mesmo essa atividade sendo estudada e utilizada por anos na engenharia de software. Nesse trabalho são introduzidos um método iterativo para expansão de ontologias usando questões de competência e uma ferramenta que implementa o método. Várias inovações são apresentadas: um componente que traduz questões de competência em linguagem natural para lógica de descrição para efetuar checagem automática usando raciocinadores; um gerador de questões de competência para guiar engenheiros durante o desenvolvimento; um componente que escreve código OWL de acordo com perguntas e respostas; um rastreador que monitora as relações entre requisitos e código e vice-versa; e um método que integra todos os pontos anteriores, criando uma maneira iterativa de expandir ontologias através de perguntas e respostas semelhante a um diálogo controlado. Para avaliar o método proposto e sua implementação foram executados testes com a ontologia SNOMED CT para analisar o comportamento dos componentes criados. Também foram realizados dois estudos de caso para avaliar o uso da ferramenta por usuários. Os testes mostraram a capacidade do método em checar e adicionar conhecimento a uma ontologia. Foi possível criar perguntas para checar todos os axiomas escolhidos da SNOMED CT e a implementação conseguiu sugerir perguntas para adicionar conhecimento à ontologia em 69,1% dos casos. Os estudos de caso levantaram os pontos fortes e fracos da implementação, mostrando o potencial da implementação em melhorar o desenvolvimento de ontologias, pois a interação através de linguagem natural é simples tanto para checagem quanto para adição de axiomas, mesmo para usuários leigos, e a rastreabilidade de requisitos grava e apresenta informações importantes para o engenheiro de ontologias. / Competency questions have an important role in the development of ontologies. Usually, they are used as ontology requirements, however many ontology development methodologies do not detail how to check the requirements or only suggest checking the questions manually. Thus, there is a lack of tools to check competency questions automatically, including using reasoners, that could make the development faster and could improve the quality of ontologies. Furthermore, requirement traceability for ontology engineering is rarely explored, even though it is studied and used by software engineers for years. In this work, we introduce an iterative method to expand ontologies using competency questions, and a tool that implements this method. Many novel approaches are presented: a component that translates natural language competency questions to description logics to check them automatically using reasoners; a component that generates competency questions to guide engineers; a component that writes OWL code using questions and answers; a tracker that monitors the relations among requirements and code and vice-versa; and a method that integrates all previous components to create an iterative way to expand ontologies using questions and answers similar to a controlled dialogue. To evaluate the method and its implementation we ran tests using the SNOMED CT ontology to analyze the behavior of the developed components. Also, we did two case studies, thus users could evaluate the tool. The tests showed the capacity of the method to check and add knowledge to an ontology. We could create questions to check all chosen axioms of SNOMED CT, and the implementation was able to suggest questions to add knowledge in 69,1% of cases. The case studies exposed the strength and weakness of the implementation. They showed the implementation potential to improve the ontology development, because it is simple to interact using natural language to check and to add axioms, even for non-experts users. Also, the requirement traceability stores and presents important information for the ontology engineers.
|
38 |
Restauração de imagens através de reflexos especularesQUEIROZ, Fabiane da Silva 10 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-01T20:32:26Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Fabiane da Silva Queiroz.pdf: 3559338 bytes, checksum: 6ad099d902a78d31ff0e24d1bb055ef6 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-02T20:06:22Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Fabiane da Silva Queiroz.pdf: 3559338 bytes, checksum: 6ad099d902a78d31ff0e24d1bb055ef6 (MD5) / Made available in DSpace on 2018-08-02T20:06:22Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Fabiane da Silva Queiroz.pdf: 3559338 bytes, checksum: 6ad099d902a78d31ff0e24d1bb055ef6 (MD5)
Previous issue date: 2017-02-10 / A restauração cega de imagens corrompidas por borramento é um problema inverso clássico da área de Processamento de Imagens e Visão Computacional. Um processo de restauração de imagens é definido como cego, quando desconhecemos tanto a imagem original não corrompida quanto a Função de Espalhamento de Ponto da degradação (PSF – Point Spread Function) e o ruído envolvido neste processo. Imagens de endoscopia óptica são comumente afetadas por borramento devido à movimentação da câmera no processo de captura ou a movimentos involuntários da superfície do tecido do trato gastrointestinal. Nesta tese propomos um novo método de restauração cega de imagens de endoscopia óptica. Para tanto, nós exploramos o uso de reflexos especulares, que constituem outro tipo de degradação muito comum nesse tipo de imagem, e que por sua vez, são utilizados como informação a priori no processo de estimativa da PSF do borramento. Sendo assim, o método aqui proposto pode ser dividido em duas etapas. A primeira etapa consiste de um novo método de segmentação precisa de reflexos especulares que podem, por sua vez, conter ricas informações sobre a degradação sofrida pela imagem. A segunda etapa consiste de um novo método de estimação da PSF da degradação, no qual a mesma é inferida através do agrupamento e fusão dos reflexos segmentados previamente. Observamos que a fusão de reflexos especulares não fere os pré-requisitos de que a PSF estimada deve ser esparsa, positiva e com um tamanho pequeno quando comparado ao tamanho da imagem sendo restaurada. Além disso, uma vez que sabemos que tais reflexos podem conter informações relevantes do processo de borramento, mostramos que quando fundidos, estes podem ser utilizados na estimação da PSF do borramento, produzindo assim resultados satisfatórios de imagens restauradas quando estas são comparadas à imagens restauradas por métodos do estado da arte, sendo a qualidade das imagens restauradas pelo método aqui proposto muitas vezes superior ou equivalente aos trabalhos comparados. / Blind image deconvolution (blind image deblurring or blind image restoration) is a classical inverse problem of Image Processing and Computer Vision. In a blind deconvolution process, the original uncorrupted image and and the Point Spread Function (PSF) of the degradation are unknown. Images of optic endoscopy are commonly affected by blur due camera movements during the image capture process or due involuntary movements of the gastrointestinal tissue. In this work, we propose a new blind deconvolution method of optical endoscopy blurred images. We explore the use of specular reflections that are a very common degradation in this type of images. These reflections are used as a prior information to the PSF estimation process. The proposed method can be divided into two stages. The first stage consists of a new method to perform a precise segmentation of specular reflections. The second step consists of a new estimation method of the PSF. This PSF is inferred by grouping and fusion of specular reflections previously segmented. We observed that the proposed method of fusion of theses reflections meets the prerequisites that the estimated PSF must be sparse, positive and have a small size when compared with the blurred image size. Also, since we know that these reflections may contain relevant information about the degradation, we show that when fused, they may be used in the estimation of the PSF producing satisfactory results where, in many cases, the quality of the images restored by the proposed method is superior or equal to the images restored by other state-of-the-art methods.
|
39 |
Consenso de segmentações de imagens usando classificação de padrõesOLIVEIRA, Wendeson da Silva 22 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-14T18:05:13Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Wendeson da Silva Oliveira.pdf: 6642155 bytes, checksum: e280283f3dc04c84da6f92e144a5155d (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-16T20:09:40Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Wendeson da Silva Oliveira.pdf: 6642155 bytes, checksum: e280283f3dc04c84da6f92e144a5155d (MD5) / Made available in DSpace on 2018-08-16T20:09:40Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Wendeson da Silva Oliveira.pdf: 6642155 bytes, checksum: e280283f3dc04c84da6f92e144a5155d (MD5)
Previous issue date: 2017-02-22 / FACEPE / O processamento e a análise de imagens caracterizam-se em 5 fases: aquisição, préprocessamento, segmentação, representação/descrição, e reconhecimento de imagens. Este trabalho situa-se na área de segmentação de imagens médicas 2D. O principal objetivo da segmentação consiste em dividir uma imagem em regiões ou objetos que a compõem. A segmentação de imagens é alvo de vários estudos e pesquisas para o desenvolvimento de métodos mais abrangentes e computacionalmente mais eficientes, principalmente em imagens médicas. Uma etapa crucial para a extração de informações automatizadas em imagens médicas, geralmente envolve a segmentação das regiões da imagem a fim de quantificar volumes e áreas de interesse de tecidos biológicos para posterior diagnóstico e localização de patologias. Um desafio importante que deve ser levado em consideração no desenvolvimento de algoritmos de segmentação de imagens médicas é como avaliar o desempenho do método. Este tipo de avaliação de desempenho geralmente é feito através da comparação dos resultados de algoritmos automáticos versus uma segmentação de referência, denominada de ground-truth. Em particular, a estimativa de ground-truth em imagens médicas pode ser obtida através do contorno manual ou ainda através de métodos interativos de segmentação. No entanto, essas abordagens podem ser extremamente trabalhosas e sujeitas a variabilidades inter e intra usuários. Uma alternativa para diminuir essa variabilidade é a segmentação utilizando o consenso da resposta de vários usuários para uma mesma imagem. Um método de consenso de segmentações tem a finalidade de combinar várias segmentações de uma mesma imagem. Este trabalho tem como principal objetivo propor uma abordagem para estimar o ground-truth em imagens médicas. A abordagem consiste nas duas principais contribuições deste trabalho. Na primeira, um novo sistema colaborativo COSE (Collaborative Segmentation) foi desenvolvido para obter várias segmentações de uma mesma imagem com o intuito de estimar o ground-truth. Já a segunda, propõe um novo método para o consenso de segmentações de imagens médicas, denominado ISECO (Intelligent SEgmentation COnsensus). Os principais métodos de consenso de segmentações utilizam apenas informações binárias. No entanto, o ISECO apresenta como principal diferencial o fato de utilizar informações extraídas da imagem em nível de cinza para auxiliar na classificação dos pixels em foreground ou background utilizando um modelo de aprendizagem. A extração de características é baseada em três extratores de textura: filtros de Gabor, Local Binary Pattern (LBP) e Local Directional Pattern (LDP). Outra abordagem para o consenso de segmentações, denominada Distance Transform Merge (DTM) também é proposta neste trabalho tendo como objetivo ser um método simples e rápido. Os métodos de consenso propostos são avaliados e comparados com outras abordagens disponíveis na literatura utilizando 4 bases de imagens. A avaliação das abordagens mostra que o ISECO apresenta resultado tão bom ou melhor que os principais métodos da literatura. / Image processing is characterized by five steps: acquisition, pre-processing, segmentation, representation/description and image recognition. In this thesis, we work with the problem the 2D medical image segmentation. The main purpose of image segmentation is to divide an image into regions. Image segmentation has been a subject of several studies and research for the development of more comprehensive and computationally more efficient methods, especially in medical imaging. A challenge that must be taken into account in the development of medical image segmentation algorithms is how to evaluate the performance of the method. This type of performance evaluation is usually done by comparing the results of automatic algorithms versus a reference segmentation, called the ground-truth. In particular, the estimation of ground-truth in medical images can be obtained through manual segmentation or interactive segmentation methods. However, these approaches can be extremely subjective and subject to both intra and inter user variability. An alternative to reduce this variability is image segmentation using the consensus of multiple segmentations of a single image. A segmentation consensus method has the purpose of combining multiple segmentations of the same image. This work proposes an approach to estimate the ground-truth in medical images. The approach consists of two parts. At first, we development a collaborative system called COSE (Collaborative SEgmentation) to obtain various segmentations of the same image in order to estimate the ground-truth. The second proposals is a new method for the consensus of medical image segmentations, called ISECO (Intelligent SEgmentation CCnsensus). The main consensus segmentation methods in the state-of-the-art uses only binary information. However, the ISECO proposes to use gray-scale image information to classify pixels in foreground or background. However, ISECO has as main differential the use of information extracted from the image in gray-scale to assist in the classification of pixels in foreground or background using a learning model. The features extraction is based on three texture extractors: Gabor filters, Local Binary Pattern (LBP) and Local Directional Pattern (LDP). Another approach to segmentation consensus, called Distance Transform Merge (DTM), is also proposed in this work, aiming to be a simple and fast method. The proposed consensus methods are evaluated and compared with other approaches available in the literature using 4 image database. Evaluation of the approaches shows that the ISECO presents better results than the main methods of the literature.
|
40 |
Um classificador baseado em perturbaçõesARAÚJO, Edson Leite 10 April 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-20T19:44:41Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Edson Leite de Araújo.pdf: 2460675 bytes, checksum: c90cfbf77664407874232bd551663f9c (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-24T21:24:41Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Edson Leite de Araújo.pdf: 2460675 bytes, checksum: c90cfbf77664407874232bd551663f9c (MD5) / Made available in DSpace on 2018-08-24T21:24:41Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Edson Leite de Araújo.pdf: 2460675 bytes, checksum: c90cfbf77664407874232bd551663f9c (MD5)
Previous issue date: 2017-04-10 / Muitos algoritmos de reconhecimento de padrões são probabilísticos em sua construção e como tal, usam a inferência estatística para determinar o melhor rótulo para uma dada instância a ser classificada. A inferência estatística baseia-se em geral, na teoria de Bayes que por sua vez, utiliza fortemente dos vetores médios, μi, e matrizes de covariância, Σi, de classes existentes nos dados de treinamento. Estes parâmetros são desconhecidos e estimativas são realizadas seguindo vários algoritmos. Entretanto, as estimativas feitas exclusivamente a partir dos dados de treinamento são ainda as mais utilizadas. Por se tratarem de estimativas, os parâmetros μi e Σi sofrem perturbações quando se insere um novo vetor na classe à qual pertencem. Avaliando as perturbações ocorridas em todas as classes simulando uma possível inserção da instância a ser classificada nas mesmas, definimos neste trabalho uma nova regra de decisão a qual atribui a instância de teste à classe em que ocorrer a menor perturbação nos parâmetros μi e Σi ou numa combinação de ambos. Nesta área, várias abordagens são possíveis, entre elas merecem destaque as árvores de decisão, as redes neurais, o aprendizado baseado em instâncias e a máquina de vetores de suporte(SVM). Entretanto, até o momento da escrita deste texto, não foi encontrado na literatura, abordagens que utilizem as perturbações de parâmetros para a classificação de padrões. Em testes realizados inicialmente em dados sintéticos e posteriormente em 21 bancos de dados reais disponíveis no UCI Repository Learning, verificou-se que o classificador baseado em perturbações, o qual foi denominado PerC (Perturbation Classifier), apresentou performance significativamente superior às versões do SVM com kernels polinomiais de graus 2 e 3, e praticamente equivalente aos k-Nearest Neighboor com k=3 e k=5, Naïve Bayes, SVM com kernel gaussiano, CART e as redes neurais MLP, tendo o PerC o maior ranking segundo o teste estatístico de Friedman. Os resultados demonstraram que a abordagem baseada em perturbações são, portanto, úteis para a classificação de padrões. / Many pattern recognition algorithms are probabilistic in their structure and as such, they use statistical inference to determine the best label for a given instance to be classified. The statistical inference is based generally on Bayes theory which strongly uses the average vectors, μi, and covariance matrices, Σi, of existing classes in the training data. These parameters are unknown and estimates are made by following various algorithms. However, the estimates made exclusively from the training data are still the most used. Because they are estimates, the parameters μi and Σi are perturbed when a new vector is inserted into the class which they belong to. Evaluating the perturbations that occurred in all classes simulating a possible inclusion of the instance to be classified in the same one, we defined in this work a new decision rule which assigns the test instance to the class in which occurs the slightest perturbation μi and Σi parameters or the combination of both. In this area, several approaches are possible, it’s worth mentioning the decision trees, neural networks, instance-based learning and the support vector machine (SVM). However, until the moment of the writing of this text, was not found in the literature, approaches that use parameters perturbations to pattern’s classification. In tests performed initially on synthetic data and later on 21 real databases available in the UCI Repository Learning, was verified that perturbation-based classifier, which was denominated PerC (Perturbation Classifier), presented performance significantly superior to the versions of the SVM with polinomial kernels of degrees 2 and 3 and roughly equivalent to k-Nearest Neighboor with k = 3 and k = 5, Naïve Bayes, SVM with Gaussian kernel, CART and MLP neural networks, having the PerC the highest ranking according to the Friedman statistical test. The results demonstrated that the perturbation-based approach is therefore useful to pattern classification.
|
Page generated in 0.1149 seconds