• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 17
  • Tagged with
  • 156
  • 92
  • 82
  • 47
  • 30
  • 24
  • 23
  • 22
  • 22
  • 22
  • 21
  • 21
  • 17
  • 16
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

[en] DEVELOPMENT OF A DIGITAL MICROSCOPY SYSTEM FOR AUTOMATIC CLASSIFICATION OF HEMATITE TYPES IN IRON ORE / [pt] DESENVOLVIMENTO DE UM SISTEMA DE MISCROSCOPIA DIGITAL PARA CLASSIFICAÇÃO AUTOMÁTICA DE TIPOS DE HEMATITA EM MINÉRIO DE FERRO

JULIO CESAR ALVAREZ IGLESIAS 30 July 2013 (has links)
[pt] O minério de ferro é um material policristalino oriundo de processos naturais complexos durante tempos geológicos, que dão origem a características intrínsecas e comportamento industrial variado. A grande maioria dos minérios de ferro brasileiro é essencialmente hematítico. A hematita pode ser classificada como lobular, lamelar, granular, microcristalina ou martita. Na industria mineral, esta caracterização é tradicionalmente realizada por operadores humanos a partir de observação de amostras de microscópio ótico, sujeita a grandes variações. Assim, é relevante desenvolver um procedimento que permita a discriminação dos diferentes tipos de hematita e a medida de características tais como o tamanho do cristal. Esta tese propõe um sistema que mede e classifica automaticamente tipos texturais de hematita baseado no processamento e na análise de imagens de microscopia ótica, em campo claro, polarização linear e polarização circular. Foram desenvolvidos rotinas para aquisição, registro,, segmentação, reconhecimento e análise morfológica de cristais hematita. A segmentação automática de cristais de hematita foi baseada no calculo da distância espectral, a fim de controlar o crescimento de regiões partindo das sementes. Os resultados da identificação dos cristais obtidos, tanto nas imagens obtidas com polarização linear quanto com polarização circular, foram muito promissores. Atributos de tamanho e forma dos cristais identificados foram obtidos. Estes dados foram usados como conjunto de treinamento para classificadores supervisionados, permitindo reconhecer as classes de hematita granular, lamelar e lobular. Taxas de acertos globais próximas a 98 por cento forma obtidas, tanto para autovalidação, quanto para avaliação cruzada. / [en] Iron ore is a polycrytalline material created by complex natural process during geological period, wich give rise to intrinsic characteristics and varied industrial behavior. The vast majority of the Brazilian iron ores belong essentially to the hematitic type. Hematite can be classified as lobular, lamelar, granular micro-crystalline or martite. In the mineral industry, the characterion of iron ore and its agglomerates is traditionally developed by human operatorsform the observation of samples under the optical microscop, wich may suffer large variations. Thus, it is important to develop a procedure that allows the discrimation of the different hematite types and the measurement of characteristics suchs crystal size. The present thesis proposes a system for the automatic classification of hematite textural types, based of digital on processing and analysis of optical microscopy images, in bright field, linear and circular polarized light. Routines were developed for the acquisition, registration, recognition and morphological analysis of hematite crytals. The automatic segmentation of hematite crystals was based on calculating the spectral distance, in order to control the region expansion form the seeds. The results regarding the identification of the obtained cystals were very promising. Size and shape attributes were obtained and used as a training set for supervised classifiers, leading to the recognition of granular, lamelar and lobular hematite classes. Global sucess rates close to 98 percent were obtained concerning self-validation as well crossed validation.
92

[en] HYBRID SYSTEM FOR RULE EXTRACTION APPLIED TO DIAGNOSIS OF POWER TRANSFORMERS / [pt] SISTEMA HÍBRIDO DE EXTRAÇÃO DE REGRAS APLICADO A DIAGNÓSTICO DE TRANSFORMADORES

CINTIA DE FARIA FERREIRA CARRARO 28 November 2012 (has links)
[pt] Este trabalho tem como objetivo construir um classificador baseado em regras de inferência fuzzy, as quais são extraídas a partir de máquinas de vetor suporte (SVMs) e ajustadas com o auxílio de um algoritmo genético. O classificador construído visa a diagnosticar transformadores de potência. As SVMs são sistemas de aprendizado baseados na teoria do aprendizado estatístico e apresentam boa habilidade de generalização em conjuntos de dados reais. SVMs, da mesma forma que redes neurais (RN), geram um modelo caixa preta, isto é, um modelo que não explica o processo pelo qual sua saída é obtida. Entretanto, para alguns problemas, o conhecimento sobre como a classificação foi obtida é tão importante quanto a classificação propriamente dita. Alguns métodos propostos para reduzir ou eliminar essa limitação já foram desenvolvidos, embora sejam restritos à extração de regras simbólicas, isto é, contêm funções ou intervalos nos antecedentes das regras. No entanto, a interpretabilidade de regras simbólicas ainda é reduzida. De forma a aumentar a interpretabilidade das regras, o modelo FREx_SVM foi desenvolvido. Neste modelo as regras fuzzy são extraídas a partir de SVMs treinadas. O modelo FREx_SVM pode ser aplicado a problemas de classificação com n classes, não sendo restrito a classificações binárias. Entretanto, apesar do bom desempenho do modelo FREx_SVM na extração de regras linguísticas, o desempenho de classificação do sistema de inferência fuzzy obtido é ainda inferior ao da SVM, uma vez que as partições (conjuntos fuzzy) das variáveis de entrada são definidas a priori, permanecendo fixas durante o processo de aprendizado das regras. O objetivo desta dissertação é, portanto, estender o modelo FREx_SVM, de forma a permitir o ajuste automático das funções de pertinência das variáveis de entrada através de algoritmos genéticos. Para avaliar o desempenho do modelo estendido, foram realizados estudos de caso em dois bancos de dados: Iris, como uma base benchmark, e a análise de resposta em frequência. A análise de resposta em frequência é uma técnica não invasiva e não destrutiva, pois preserva as características dos equipamentos. No entanto, o diagnóstico é feito de modo visual comparativo e requer o auxílio de um especialista. Muitas vezes, este diagnóstico é subjetivo e inconclusivo. O ajuste automático das funções de pertinência correspondentes aos conjuntos fuzzy associados às variáveis de entrada reduziu o erro de classificação em até 13,38 por cento em relação à configuração sem este ajuste. Em alguns casos, o desempenho da configuração com ajuste das funções de pertinência supera até mesmo aquele obtido pela própria SVM. / [en] This work aims to develop a classifier model based on fuzzy inference rules, which are extracted from support vector machines (SVMs) and optimized by a genetic algorithm. The classifier built aims to diagnose power transformers. The SVMs are learning systems based on statistical learning theory and have provided good generalization performance in real data sets. SVMs, as artificial neural networks (NN), generate a black box model, that is, a model that does not explain the process by which its output is obtained. However, for some applications, the knowledge about how the classification was obtained is as important as the classification itself. Some proposed methods to reduce or eliminate this limitation have already been developed, although they are restricted to the extraction of symbolic rules, i.e. contain functions or ranges in the rules´ antecedents. Nevertheless, the interpretability of symbolic rules is still reduced. In order to increase the interpretability of the rules, the FREx_SVM model was developed. In this model the fuzzy rules are extracted from trained SVMs. The FREx_SVM model can be applied to classification problems with n classes, not being restricted to binary classifications. However, despite the good performance of the FREx_SVM model in extracting linguistic rules, the classification performance of fuzzy classification system obtained is still lower than the SVM, since the partitions (fuzzy sets) of the input variables are predefined at the beginning of the process, and are fixed during the rule extraction process. The goal of this dissertation is, therefore, to extend the FREx_SVM model, so as to enable the automatic adjustment of the membership functions of the input variables through genetic algorithms. To assess the performance of the extended model, case studies were carried out in two databases: iris benchmark and frequency response analysis. The frequency response analysis is a noninvasive and non-destructive technique, because it preserves the characteristics of the equipment. However, the diagnosis is carried out by visual comparison and requires the assistance of an expert. Often, this diagnosis is subjective and inconclusive. The automatic adjustment of the membership functions associated with input variables reduced the error up to 13.38 per cent when compared to the configuration without this optimization. In some cases, the classification performance with membership functions optimization exceeds even those obtained by SVM.
93

[en] SQLLOMINING: FINDING LEARNING OBJECTS USING MACHINE LEARNING METHODS / [pt] SQLLOMINING: OBTENÇÃO DE OBJETOS DE APRENDIZAGEM UTILIZANDO TÉCNICAS DE APRENDIZADO DE MÁQUINA

SUSANA ROSICH SOARES VELLOSO 04 December 2007 (has links)
[pt] Objetos de Aprendizagem ou Learning Objects (LOs) são porções de material didático tais como textos que podem ser reutilizados na composição de outros objetos maiores (aulas ou cursos). Um dos problemas da reutilização de LOs é descobri-los em seus contextos ou documentos texto originais tais como livros, e artigos. Visando a obtenção de LOs, este trabalho apresenta um processo que parte da extração, tratamento e carga de uma base de dados textual e em seguida, baseando-se em técnicas de aprendizado de máquina, uma combinação de EM (Expectation-Maximization) e um classificador Bayesiano, classifica-se os textos extraídos. Tal processo foi implementado em um sistema chamado SQLLOMining, que usa SQL como linguagem de programação e técnicas de mineração de texto na busca de LOs. / [en] Learning Objects (LOs) are pieces of instructional material like traditional texts that can be reused in the composition of more complex objects like classes or courses. There are some difficulties in the process of LO reutilization. One of them is to find pieces of documents that can be used like LOs. In this work we present a process that, in search for LOs, starts by extracting, transforming and loading a text database and then continue clustering these texts, using a machine learning methods that combines EM (Expectation- Maximization) and a Bayesian classifier. We implemented that process in a system called SQLLOMining that uses the SQL language and text mining methods in the search for LOs.
94

[en] A STUDY OF MULTILABEL TEXT CLASSIFICATION ALGORITHMS USING NAIVE-BAYES / [pt] UM ESTUDO DE ALGORITMOS PARA CLASSIFICAÇÃO AUTOMÁTICA DE TEXTOS UTILIZANDO NAIVE-BAYES

DAVID STEINBRUCH 12 March 2007 (has links)
[pt] A quantidade de informação eletrônica vem crescendo de forma acelerada, motivada principalmente pela facilidade de publicação e divulgação que a Internet proporciona. Desta forma, é necessária a organização da informação de forma a facilitar a sua aquisição. Muitos trabalhos propuseram resolver este problema através da classificação automática de textos associando a eles vários rótulos (classificação multirótulo). No entanto, estes trabalhos transformam este problema em subproblemas de classificação binária, considerando que existe independência entre as categorias. Além disso, utilizam limiares (thresholds), que são muito específicos para o conjunto de treinamento utilizado, não possuindo grande capacidade de generalização na aprendizagem. Esta dissertação propõe dois algoritmos de classificação automática de textos baseados no algoritmo multinomial naive Bayes e sua utilização em um ambiente on-line de classificação automática de textos com realimentação de relevância pelo usuário. Para testar a eficiência dos algoritmos propostos, foram realizados experimentos na base de notícias Reuters 21758 e na base de documentos médicos Ohsumed. / [en] The amount of electronic information has been growing fast, mainly due to the easiness of publication and spreading that Internet provides. Therefore, is necessary the organisation of information to facilitate its retrieval. Many works have solved this problem through the automatic text classification, associating to them several labels (multilabel classification). However, those works have transformed this problem into binary classification subproblems, considering there is not dependence among categories. Moreover, they have used thresholds, which are very sepecific of the classifier document base, and so, does not have great generalization capacity in the learning process. This thesis proposes two text classifiers based on the multinomial algorithm naive Bayes and its usage in an on-line text classification environment with user relevance feedback. In order to test the proposed algorithms efficiency, experiments have been performed on the Reuters 21578 news base, and on the Ohsumed medical document base.
95

[en] CO-SITE MICROSCOPY: NEW POSSIBILITIES IN THE ORE CHARACTERIZATION / [pt] MICROSCOPIA CO-LOCALIZADA: NOVAS POSSIBILIDADES NA CARACTERIZAÇÃO DE MINÉRIOS

OTAVIO DA FONSECA MARTINS GOMES 31 March 2008 (has links)
[pt] A integração do controle por computador de microscópios com a aquisição e análise digital de imagens levou à criação de uma nova área, denominada Microscopia Digital. Além de permitir um certo grau de automação, a Microscopia Digital abriu possibilidades realmente novas para a caracterização microestrutural. Uma destas novas e promissoras possibilidades é a Microscopia Co-localizada, que junta diversos tipos de informação, obtidas a partir de diferentes técnicas de microscopia. No presente trabalho foi desenvolvida e implementada uma metodologia de Microscopia Co-localizada que combina imagens de Microscopia Óptica de Luz Refletida (MO) e de Microscopia Eletrônica de Varredura (MEV). Esta metodologia envolve desde a aquisição das imagens nos microscópios até a análise das fases presentes através de técnicas de Reconhecimento de Padrões. Um procedimento automático de registro entre os dois tipos de imagens foi desenvolvido, permitindo o ajuste de magnificação, translação, rotação, tamanho de pixel e distorções locais. Desta forma, imagens de MO e de MEV de uma dada amostra podem ser combinadas precisamente. A metodologia foi testada com diversas amostras minerais, visando a discriminação de fases que são indistinguíveis por MO ou MEV. A Microscopia Co-localizada MOMEV foi empregada em uma rotina para a caracterização de amostras de minério de ferro e os resultados obtidos foram comparados com os da análise tradicional ao MEV. / [en] Computer-controlled microscopes with digital image acquisition and analysis led to the creation of a new field, called Digital Microscopy. Digital Microscopy not only allows a certain degree of automation but also has brought new possibilities to microstructural characterization. One of these new and promising possibilities is Co- Site Microscopy, that links different kinds of information, obtained from different microscopy techniques. The present work presents the development and implementation of a Co-Site Microscopy methodology that combines images obtained by Reflected Light Microscopy (RLM) and Scanning Electron Microscopy (SEM). This methodology involves the whole sequence, from image acquisition at the microscopes to the analysis of the phases using Pattern Recognition techniques. An automatic registration procedure for the two kinds of images was developed, allowing the adjustment of magnification, translation, rotation, and pixel size, and the correction of local distortions. The methodology was tested with several mineral samples, aiming at the discrimination of phases that are not distinguishable with either RLM or SEM. The RLM-SEM Co-Site Microscopy technique was employed in the characterization of iron ore samples and the obtained results were compared to the traditional analysis by SEM.
96

[en] RELAPSE RISK ESTIMATION IN CHILDREN WITH ACUTE LYMPHOBLASTIC LEUKEMIA BY USING NEURAL NETWORKS / [pt] ESTIMAÇÃO DO RISCO DE RECIDIVA EM CRIANÇAS PORTADORAS DE LEUCEMIA LINFOBLÁSTICA AGUDA USANDO REDES NEURAIS

JOSE LEONARDO RIBEIRO MACRINI 21 December 2004 (has links)
[pt] Esta tese propõe uma metodologia, baseada em procedimentos quantitativos, para estimação do risco de evento adverso (recaída ou morte) em crianças portadoras de Leucemia Linfoblástica Aguda (LLA). A metodologia proposta foi implementada e analisada utilizando dados de grupo de crianças diagnosticadas no Setor de Hematologia do Instituto de Puericultura e Pediatria Martagão Gesteira (IPPMG) da UFRJ e no Serviço de Hematologia Hospital Universitário Pedro Ernesto (HUPE) da UERJ que constituem uma considerável parcela dos casos de LLA na infância registrados no Rio de Janeiro nos últimos anos. A estimação do risco de recaída foi realizada através de um modelo de Redes Neurais após uma seqüência de procedimentos de pré- tratamento de variáveis e de refinamentos do método no que concerne a saída alvo da rede. O tratamento das variáveis é fundamental uma vez que o número reduzido de amostras é uma característica intrínseca deste problema. Embora a LLA seja o câncer mais freqüente a infância, sua incidência é de aproximadamente 1 caso por 100 mil habitantes por ano. Os resultados encontrados foram satisfatórios obtendo-se um percentual de acerto de 93% (fora da amostra) para os pacientes que recaíram quando comparados com o método classicamente utilizado na clínica médica para a avaliação do risco de recidiva (método do grupo BFM). Espera-se que os resultados obtidos possam vir a dar subsídios às condutas médicas em relação à estimativa do risco de recidiva dos pacientes, portanto, podendo vir a ser útil na modulação da intensidade da terapêutica. / [en] In this it is proposed a methodology, based on quantitative procedure, to estimate the adverse event risk (relapse or death) in Acute Lymphoblastic Leukemia (ALL) in children. This methodology was implemented and analyzed in a dataset composed by children diagnosed and treated at the hematology service of the Instituto de Puericultura e Pediatria Martagão Gesteira (IPPMG) in the Federal University of Rio de Janeiro and of the Hospital Universitário Pedro Ernesto (HUPE) in the University of state of Rio de Janeiro. This group constitutes a considerable fraction of the ALL cases in childhood registered in the last few years in Rio de Janeiro. The relapse risk was estimated by a Neural Networks model after a sequence of variable pre-treatment procedures. This treatment has a fundamental importance due to the small number of cases (an intrinsic characteristic of this problem). Although, the ALL is the most frequent cancer in childhood, it incidence is approximately just 1 case for 100 000 inhabitants by year. The obtained results may be considered excellent when compared with the classical risk estimative method used in the medical clinics (BFM risk). A perceptual of successes of 93% (out-of-sample) in no- relapse patients was achieved. We expect that the obtained results may subsidize medical conduct concerning the risk of adverse event and so it could be useful in the treatment intensity modulation.
97

[en] FUZZY RULES EXTRACTION FROM SUPPORT VECTOR MACHINES (SVM) FOR MULTI-CLASS CLASSIFICATION / [pt] EXTRAÇÃO DE REGRAS FUZZY PARA MÁQUINAS DE VETOR SUPORTE (SVM) PARA CLASSIFICAÇÃO EM MÚLTIPLAS CLASSES

ADRIANA DA COSTA FERREIRA CHAVES 25 October 2006 (has links)
[pt] Este trabalho apresenta a proposta de um novo método para a extração de regras fuzzy de máquinas de vetor suporte (SVMs) treinadas para problemas de classificação. SVMs são sistemas de aprendizado baseados na teoria estatística do aprendizado e apresentam boa habilidade de generalização em conjuntos de dados reais. Estes sistemas obtiveram sucesso em vários tipos de problemas. Entretanto, as SVMs, da mesma forma que redes neurais (RN), geram um modelo caixa preta, isto é, um modelo que não explica o processo pelo qual sua saída é obtida. Alguns métodos propostos para reduzir ou eliminar essa limitação já foram desenvolvidos para o caso de classificação binária, embora sejam restritos à extração de regras simbólicas, isto é, contêm funções ou intervalos nos antecedentes das regras. No entanto, a interpretabilidade de regras simbólicas ainda é reduzida. Deste modo, propõe-se, neste trabalho, uma técnica para a extração de regras fuzzy de SVMs treinadas, com o objetivo de aumentar a interpretabilidade do conhecimento gerado. Além disso, o modelo proposto foi desenvolvido para classificação em múltiplas classes, o que ainda não havia sido abordado até agora. As regras fuzzy obtidas são do tipo se x1 pertence ao conjunto fuzzy C1, x2 pertence ao conjunto fuzzy C2,..., xn pertence ao conjunto fuzzy Cn, então o ponto x = (x1,...,xn) é da classe A. Para testar o modelo foram realizados estudos de caso detalhados com quatro bancos de dados: Íris, Wine, Bupa Liver Disorders e Winconsin Breast Cancer. A cobertura das regras resultantes da aplicação desse modelo nos testes realizados mostrou-se muito boa, atingindo 100% no caso da Íris. Após a geração das regras, foi feita uma avaliação das mesmas, usando dois critérios, a abrangência e a acurácia fuzzy. Além dos testes acima mencionados foi comparado o desempenho dos métodos de classificação em múltiplas classes usados no trabalho. / [en] This text proposes a new method for fuzzy rule extraction from support vector machines (SVMs) trained to solve classification problems. SVMs are learning systems based on statistical learning theory and present good ability of generalization in real data base sets. These systems have been successfully applied to a wide variety of application. However SVMs, as well as neural networks, generates a black box model, i.e., a model which does not explain the process used in order to obtain its result. Some considered methods to reduce this limitation already has been proposed for the binary classification case, although they are restricted to symbolic rules extraction, and they have, in their antecedents, functions or intervals. However, the interpretability of the symbolic generated rules is small. Hence, to increase the linguistic interpretability of the generating rules, we propose a new technique for extracting fuzzy rules of a trained SVM. Moreover, the proposed model was developed for classification in multiple classes, which was not introduced till now. Fuzzy rules obtained are presented in the format if x1 belongs to the fuzzy set C1, x2 belongs to the fuzzy set C2 , … , xn belongs to the fuzzy set Cn , then the point x=(x1, x2, …xn) belongs to class A. For testing this new model, we performed detailed researches on four data bases: Iris, Wine, Bupa Liver Disorders and Wisconsin Breast Cancer. The rules´ coverage resultant of the application of this method was quite good, reaching 100% in Iris case. After the rules generation, its evaluation was performed using two criteria: coverage and accuracy. Besides the testing above, the performance of the methods for multi-class SVM described in this work was evaluated.
98

[en] A MULTI-AGENT FRAMEWORK FOR SEARCH AND FLEXIBILIZATION OF DOCUMENT CLASSIFICATION ALGORITHMS / [pt] UM FRAMEWORK MULTI-AGENTES PARA BUSCA E FLEXIBILIZAÇÃO DE ALGORITMOS DE CLASSIFICAÇÃO DE DOCUMENTOS

JOAO ALFREDO PINTO DE MAGALHAES 18 June 2003 (has links)
[pt] Vivemos na era da informação, onde o conhecimento é criado numa velocidade nunca antes vista. Esse aumento de velocidade teve como principalrazão a Internet, que alterou os paradigmas até então existentes de troca de informações entre as pessoas. Através da rede, trabalhos inteiros podem ser publicados, atingindo um público alvo impossível de ser alcançado através dos meios existentes anteriormente. Porém, o excesso de informação também pode agir no sentido contrário: muita informação pode ser igual a nenhuma informação. Nosso trabalho foi o de produzir um sistema multi-agentes para busca e classificação de documentos textuais de um domínio específico. Foi construída uma infra-estrutura que separa as questões referentes à busca e seleção dos documentos (plataforma) das referentes ao algoritmo de classificação utilizado (uma aplicação do conceito de separation of concerns). Dessa forma, é possível não só acoplar algoritmos já existentes, mas também gerar novos algoritmos levando em consideração características específicas do domínio de documentos abordado. Foram geradas quatro instâncias a partir do framework, uma aplicação de webclipping, um componente para auxílio a knowledge management, um motor de busca para websites e uma aplicação para a web semântica. / [en] We are living in the information age, where knowledge is constantly being created in a rate that was never seen before. This is mainly due to Internet, that changed all the information exchange paradigms between people. Through the net, it is possible to publish or exchange whole works, reaching an audience impossible to be reached through other means. However, excess of information can be harmful: having too much information can be equal to having no information at all. Our work was to build a multi-agent framework for search and flexibilization of textual document classification algorithms of a specific domain. We have built an infra-structure that separates the concerns of document search and selection (platform) from the concerns of document classification (an application of the separation of concerns concept). It is possible not only to use existing algorithms, but also to generate new ones that consider domain-specific characteristics of documents. We generated four instances of the framework, a webclipping application, a knowledge management component, a search engine for websites and an application for the semantic web.
99

A scala naturae de Aristóteles na obra De generatione animalium

Ariza, Fabiana Vieira 20 May 2010 (has links)
Made available in DSpace on 2016-04-28T14:16:45Z (GMT). No. of bitstreams: 1 Fabiana Vieira Ariza.pdf: 1534007 bytes, checksum: edbdbad2a7d5c188efb21566874bfbe3 (MD5) Previous issue date: 2010-05-20 / The aim of this dissertation is to discuss in a broad way the conception of scala naturae, a prevailing view in the Western thought for many centuries. It will discuss particularly, in which way such idea was present in Aristotle s work De generatione animalium. It will describe Aristotle s methodology, as well as, trying to elucidate if Aristotle had intended to present a classification of animals. If so, which criteria he had used to draw it. Besides that, it will try to find which view he held about the origin of animals. This dissertation contains an introduction and four chapters. Chapter 1 discusses the idea of scala naturae from Antiquity to 19th century. Chapter 2 deals with some respects of Aristotle s life and writings, emphasizing the ones in which he studied the living beings. It also discusses some concepts adopted by him. Chapter 3 analyses the idea of scala naturae in De generatione animalium, as well as, the criteria he had used to draw his scale. Chapter 4 provides some final remarks on the subject. This study led to the conclusion that Aristotle invested lots of energy in classifying the great groups of animals which were arranged in his scale of perfection, contrary to the view held by some authors. The main criterion adopted by him was the vital heat of animals. Moreover, he did not present a sketch of his scale, although it was implicit in his writings. Besides that, there is no idea of organic evolution in Aristotle s scale of perfection. It represents just an arrangement of the great groups of animals. In this way, it is in harmony with his cosmological view / Os objetivos desta dissertação são discutir de um modo geral, a concepção de scala naturae, uma visão que esteve presente no pensamento ocidental durante muitos séculos. Discutirá particularmente, de que modo ela se apresenta na obra De generatione animalium de Aristóteles. Descreverá a metodologia de Aristóteles, procurando elucidar se ele pretendia apresentar uma classificação dos animais. Em caso positivo, procurará identificar os critérios que ele utilizou para isso. Além disso, procurará detectar qual era a opinião de Aristóteles sobre a origem dos animais. Esta dissertação está dividida em uma introdução e quatro capítulos. O Capítulo 1 discute a idéia de scala naturae, que se iniciou na Antiguidade e perdurou até o século XIX. O Capítulo 2 discorre sobre alguns aspectos da vida e obra de Aristóteles, enfatizando aquelas onde ele estudou os seres vivos. Discute também alguns conceitos adotados por ele. O Capítulo 3 analisa a idéia de scala naturae na obra De generatione animalium bem como os critérios adotados por Aristóteles na elaboração da mesma. O Capítulo 4 apresenta algumas considerações finais sobre o assunto. Este estudo levou à conclusão, de modo oposto à interpretação dada por alguns autores, de que Aristóteles investiu bastante energia na elaboração de uma classificação dos animais que ele distribuiu em grandes grupos na sua escala de perfeição. O principal critério que ele adotou foi o grau de calor vital dos animais. Além disso, ele não apresentou um esquema de sua escala, embora ela esteja implícita em seu trabalho. Não há nenhuma idéia de evolução orgânica na escala de perfeição de Aristóteles. Ela representa apenas um arranjo dos grandes grupos de animais. Nesse sentido, pode-se dizer que a visão de Aristóteles em relação a este assunto está em harmonia com sua visão cosmológica
100

[en] MACHINE LEARNING FOR SENTIMENT CLASSIFICATION / [pt] APRENDIZADO DE MÁQUINA PARA O PROBLEMA DE SENTIMENT CLASSIFICATION

PEDRO OGURI 18 May 2007 (has links)
[pt] Sentiment Analysis é um problema de categorização de texto no qual deseja-se identificar opiniões favoráveis e desfavoráveis com relação a um tópico. Um exemplo destes tópicos de interesse são organizações e seus produtos. Neste problema, documentos são classificados pelo sentimento, conotação, atitudes e opiniões ao invés de se restringir aos fatos descritos neste. O principal desafio em Sentiment Classification é identificar como sentimentos são expressados em textos e se tais sentimentos indicam uma opinião positiva (favorável) ou negativa (desfavorável) com relação a um tópico. Devido ao crescente volume de dados disponível na Web, onde todos tendem a ser geradores de conteúdo e expressarem opiniões sobre os mais variados assuntos, técnicas de Aprendizado de Máquina vem se tornando cada vez mais atraentes. Nesta dissertação investigamos métodos de Aprendizado de Máquina para Sentiment Analysis. Apresentamos alguns modelos de representação de documentos como saco de palavras e N-grama. Testamos os classificadores SVM (Máquina de Vetores Suporte) e Naive Bayes com diferentes modelos de representação textual e comparamos seus desempenhos. / [en] Sentiment Analysis is a text categorization problem in which we want to identify favorable and unfavorable opinions towards a given topic. Examples of such topics are organizations and its products. In this problem, docu- ments are classifed according to their sentiment, connotation, attitudes and opinions instead of being limited to the facts described in it. The main challenge in Sentiment Classification is identifying how sentiments are expressed in texts and whether they indicate a positive (favorable) or negative (unfavorable) opinion towards a topic. Due to the growing volume of information available online in an environment where we all tend to be content generators and express opinions on a variety of subjects, Machine Learning techniques have become more and more attractive. In this dissertation, we investigate Machine Learning methods applied to Sentiment Analysis. We present document representation models such as bag-of-words and N-grams.We compare the performance of the Naive Bayes and the Support Vector Machine classifiers for each proposed model

Page generated in 0.2532 seconds