• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 15
  • Tagged with
  • 44
  • 44
  • 32
  • 15
  • 14
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • 8
  • 8
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

[en] NCE: AN ALGORITHM FOR CONTENT EXTRACTION IN NEWS PAGES / [pt] NCE: UM ALGORITMO PARA EXTRAÇÃO DE CONTEÚDO DE PÁGINAS DE NOTÍCIAS

EVELIN CARVALHO FREIRE DE AMORIM 15 September 2017 (has links)
[pt] A extração de entidades de páginas web é comumente utilizada para melhorar a qualidade de muitas tarefas realizadas por máquinas de busca como detecção de páginas duplicadas e ranking. Essa tarefa se torna ainda mais relevante devido ao crescente volume de informação da internet com as quais as máquinas de busca precisam lidar. Existem diversos algoritmos para detecção de conteúdo na literatura, alguns orientados a sites e outros que utilizam uma abordagem mais local e são chamados de algoritmos orientados a páginas. Os algoritmos orientados a sites utilizam várias páginas de um mesmo site para criar um modelo que detecta o conteúdo relevante da página. Os algoritmos orientados a páginas detectam conteúdo avaliando as características de cada página, sem comparar com outras páginas. Neste trabalho apresentamos um algoritmo, chamado NCE ( News Content Extractor), orientado a página e que se propõe a realizar extração de entidades em páginas de notícias. Ele utiliza atributos de uma árvore DOM para localizar determinadas entidades de uma página de notícia, mais especificamente, o título e o corpo da notícia. Algumas métricas são apresentadas e utilizadas para aferir a qualidade do NCE. Quando comparado com outro método baseado em página e que utiliza atributos visuais, o NCE se mostrou superior tanto em relação à qualidade de extração quanto no que diz respeito ao tempo de execução. / [en] The entity extraction of web pages is commonly used to enhance the quality of tasks performed by search engines, like duplicate pages and ranking. The relevance of entity extraction is crucial due to the fact that search engines have to deal with fast growning volume of information on the web. There are many algorithms that detect entities in the literature, some using site level strategy and others using page level strategy. The site level strategy uses many pages from the same site to create a model that extracts templates. The page level strategy creates a model to extract templates according to features of the page. Here we present an algorithm, called NCE (News Content Extractor), that uses a page level strategy and its objective is to perform entity extraction on news pages. It uses features from a DOM tree to search for certain entities, namely, the news title and news body. Some measures are presented and used to evaluate how good NCE is. When we compare NCE to a page level algorithm that uses visual features, NCE shows better execution time and extraction quality.
12

[pt] REVISITANDO O MARCHING CUBES 33: GARANTIAS TOPOLÓGICAS E QUALIDADE DA MALHA / [en] REVISITING MARCHING CUBES 33: TOPOLOGICAL GUARANTEES AND MESH QUALITY

16 December 2021 (has links)
[pt] O Marching Cubes 33 proposto por Chernyaev é um dos primeiros algoritmos de extração de isosuperfície destinados a preservar a topologia do interpolante trilinear. Neste trabalho, abordamos três problemas no algoritmo do Marching Cubes 33, dois dos quais estão relacionados com a sua descrição original. Em particular, resolvemos um problema no procedimento para resolver ambiguidades interiores do Marching Cubes 33, que impede que a isosuperfície seja extraída corretamente para o caso ambíguo 13.5. O algoritmo Marching Cubes é considerado simples, robusto e com baixo custo computacional, características que contribuíram para torná-lo popular entre os algoritmo de extração de isosuperfícies. Porém no que se refere a qualidade da triangulação da malha resultante, não raramente observamos um grande número de triângulos finos (triângulos com ângulos pequenos) e até mesmo degenerados (triângulos com área zero). Buscando unir à coerência topológica uma melhor qualidade na triangulação gerada, propomos uma extensão da tabela de triangulação proposta por Chernyaev, de modo que os vértices da grade passem a fazer parte da triangulação, eliminando assim a possibilidade de geração de triângulos degenerados. Esta nova tabela é utilizada para evitar a criação de triângulos finos, através de pequenas alterações do campo escalar nos vértices da grade. / [en] Chernyaev s Marching Cubes 33 is one of the first isosurface extraction algorithms intended to preserve the topology of the trilinear interpolant. In this work, we address three issues in the Marching Cubes 33 algorithm, two of which are related to its original description. In particular, we solve a problem with the core disambiguation procedure of Marching Cubes 33 that prevents the extraction of topologically correct isosurfaces for the ambiguous configuration 13.5 thus fixing the original formulation of the algorithm. The Marching Cubes algorithm is considered simple, robust and with low computational cost, characteristics that contributed to make it the most popular algorithm for isosurfaces extraction. However, regarding the quality of the resulting mesh, frequently it is possible to observe a large number of badly-shaped triangles (triangles with small angles) and even degenerate (triangles with zero area) ones. Seeking to unite a better triangulation quality of the resulting mesh to the topological consistency, we propose an extension of the triangulation table proposed by Chernyaev, so that the vertices of the grid become part of the triangulation generated, thus eliminating the possibility of generation of degenerate triangles. This new table is used to avoid the creation of badly-shaped triangles via small changes of the scalar field on the vertices of the grid.
13

[en] AUTOMATIC SYNTHESIS OF FUZZY INFERENCE SYSTEMS FOR CLASSIFICATION / [pt] SÍNTESE AUTOMÁTICA DE SISTEMAS DE INFERÊNCIA FUZZY PARA CLASSIFICAÇÃO

JORGE SALVADOR PAREDES MERINO 25 July 2016 (has links)
[pt] Hoje em dia, grande parte do conhecimento acumulado está armazenado em forma de dados. Para muitos problemas de classificação, tenta-se aprender a relação entre um conjunto de variáveis (atributos) e uma variável alvo de interesse. Dentre as ferramentas capazes de atuar como modelos representativos de sistemas reais, os Sistemas de Inferência Fuzzy são considerados excelentes com respeito à representação do conhecimento de forma compreensível, por serem baseados em regras linguísticas. Este quesito de interpretabilidade linguística é relevante em várias aplicações em que não se deseja apenas um modelo do tipo caixa preta, que, por mais precisão que proporcione, não fornece uma explicação de como os resultados são obtidos. Esta dissertação aborda o desenvolvimento de um Sistema de Inferência Fuzzy de forma automática, buscando uma base de regras que valorize a interpretabilidade linguística e que, ao mesmo tempo, forneça uma boa acurácia. Para tanto, é proposto o modelo AutoFIS-Class, um método automático para a geração de Sistemas de Inferência Fuzzy para problemas de classificação. As características do modelo são: (i) geração de premissas que garantam critérios mínimos de qualidade, (ii) associação de cada premissa a um termo consequente mais compatível e (iii) agregação de regras de uma mesma classe por meio de operadores que ponderem a influência de cada regra. O modelo proposto é avaliado em 45 bases de dados benchmark e seus resultados são comparados com modelos da literatura baseados em Algoritmos Evolucionários. Os resultados comprovam que o Sistema de Inferência gerado é competitivo, apresentando uma boa acurácia com um baixo número de regras. / [en] Nowadays, much of the accumulated knowledge is stored as data. In many classification problems the relationship between a set of variables (attributes) and a target variable of interest must be learned. Among the tools capable of modeling real systems, Fuzzy Inference Systems are considered excellent with respect to the knowledge representation in a comprehensible way, as they are based on inference rules. This is relevant in applications where a black box model does not suffice. This model may attain good accuracy, but does not explain how results are obtained. This dissertation presents the development of a Fuzzy Inference System in an automatic manner, where the rule base should favour linguistic interpretability and at the same time provide good accuracy. In this sense, this work proposes the AutoFIS-Class model, an automatic method for generating Fuzzy Inference Systems for classification problems. Its main features are: (i) generation of premises to ensure minimum, quality criteria, (ii) association of each rule premise to the most compatible consequent term; and (iii) aggregation of rules for each class through operator that weigh the relevance of each rule. The proposed model was evaluated for 45 datasets and their results were compared to existing models based on Evolutionary Algorithms. Results show that the proposed Fuzzy Inference System is competitive, presenting good accuracy with a low number of rules.
14

[pt] DOS TERMOS ÀS ENTIDADES NO DOMÍNIO DE PETRÓLEO / [en] FROM TERMS TO ENTITIES IN THE OIL AND GAS AREA

WOGRAINE EVELYN FARIA DIAS 09 September 2021 (has links)
[pt] Este trabalho tem como objetivo identificar uma terminologia e expressões relevantes do domínio de óleo e gás (OeG) e estruturá-la como uma taxonomia, tendo em vista o levantamento de itens para a anotação de entidades dentro do domínio. Para tanto, foi construída uma lista de termos relevantes da área, com base em diversas fontes, e, em seguida, a lista foi estruturada hierarquicamente por meio de regras. O processo de elaboração da taxonomia seguiu aspectos teóricometodológicos utilizados por diversos trabalhos semelhantes dentro da área. O trabalho procura evidenciar que a identificação de uma terminologia de um domínio técnico e a sua estruturação como taxonomia podem servir como a primeira etapa do levantamento de entidades de um domínio. Por conta disso, o trabalho também se propõe a discutir estratégias para identificação de entidade mencionada (EM) e possibilitar um diálogo entre duas áreas: Processamento de Linguagem Natural (PLN) e Linguística. De maneira geral, espera-se que a taxonomia ajudar a suprir, mesmo que de forma modesta, a escassez de recursos linguísticos para as técnicas do Processamento de Linguagem Natural (PLN) e da Extração de Informação (EI), dentro da área de óleo e gás. / [en] This work aims to identify a terminology and relevant expressions of the oil and gas domain and structure it as a taxonomy. To this end, a list of relevant terms in the area was built, based on various sources, and then the list was structured hierarchically by rules. The taxonomy elaboration process followed theoretical and methodological aspects used by several similar works within the area. The work tries to show that the identification of a technical domain terminology and its structuring as a taxonomy can serve as the first stage of the identification of entities in a domain. Because of this, the work also proposes to discuss strategies for identifying named entity and to enable a dialogue between two areas: Natural Language Processing (NLP) and Linguistics. In general, the taxonomy presented is expected to supply, at least in a modest way, the lack of linguistic resources for techniques of Natural Language Processing (NLP) and Information Extraction (EI), within the area of oil and gas.
15

[en] HYBRID SYSTEM FOR RULE EXTRACTION APPLIED TO DIAGNOSIS OF POWER TRANSFORMERS / [pt] SISTEMA HÍBRIDO DE EXTRAÇÃO DE REGRAS APLICADO A DIAGNÓSTICO DE TRANSFORMADORES

CINTIA DE FARIA FERREIRA CARRARO 28 November 2012 (has links)
[pt] Este trabalho tem como objetivo construir um classificador baseado em regras de inferência fuzzy, as quais são extraídas a partir de máquinas de vetor suporte (SVMs) e ajustadas com o auxílio de um algoritmo genético. O classificador construído visa a diagnosticar transformadores de potência. As SVMs são sistemas de aprendizado baseados na teoria do aprendizado estatístico e apresentam boa habilidade de generalização em conjuntos de dados reais. SVMs, da mesma forma que redes neurais (RN), geram um modelo caixa preta, isto é, um modelo que não explica o processo pelo qual sua saída é obtida. Entretanto, para alguns problemas, o conhecimento sobre como a classificação foi obtida é tão importante quanto a classificação propriamente dita. Alguns métodos propostos para reduzir ou eliminar essa limitação já foram desenvolvidos, embora sejam restritos à extração de regras simbólicas, isto é, contêm funções ou intervalos nos antecedentes das regras. No entanto, a interpretabilidade de regras simbólicas ainda é reduzida. De forma a aumentar a interpretabilidade das regras, o modelo FREx_SVM foi desenvolvido. Neste modelo as regras fuzzy são extraídas a partir de SVMs treinadas. O modelo FREx_SVM pode ser aplicado a problemas de classificação com n classes, não sendo restrito a classificações binárias. Entretanto, apesar do bom desempenho do modelo FREx_SVM na extração de regras linguísticas, o desempenho de classificação do sistema de inferência fuzzy obtido é ainda inferior ao da SVM, uma vez que as partições (conjuntos fuzzy) das variáveis de entrada são definidas a priori, permanecendo fixas durante o processo de aprendizado das regras. O objetivo desta dissertação é, portanto, estender o modelo FREx_SVM, de forma a permitir o ajuste automático das funções de pertinência das variáveis de entrada através de algoritmos genéticos. Para avaliar o desempenho do modelo estendido, foram realizados estudos de caso em dois bancos de dados: Iris, como uma base benchmark, e a análise de resposta em frequência. A análise de resposta em frequência é uma técnica não invasiva e não destrutiva, pois preserva as características dos equipamentos. No entanto, o diagnóstico é feito de modo visual comparativo e requer o auxílio de um especialista. Muitas vezes, este diagnóstico é subjetivo e inconclusivo. O ajuste automático das funções de pertinência correspondentes aos conjuntos fuzzy associados às variáveis de entrada reduziu o erro de classificação em até 13,38 por cento em relação à configuração sem este ajuste. Em alguns casos, o desempenho da configuração com ajuste das funções de pertinência supera até mesmo aquele obtido pela própria SVM. / [en] This work aims to develop a classifier model based on fuzzy inference rules, which are extracted from support vector machines (SVMs) and optimized by a genetic algorithm. The classifier built aims to diagnose power transformers. The SVMs are learning systems based on statistical learning theory and have provided good generalization performance in real data sets. SVMs, as artificial neural networks (NN), generate a black box model, that is, a model that does not explain the process by which its output is obtained. However, for some applications, the knowledge about how the classification was obtained is as important as the classification itself. Some proposed methods to reduce or eliminate this limitation have already been developed, although they are restricted to the extraction of symbolic rules, i.e. contain functions or ranges in the rules´ antecedents. Nevertheless, the interpretability of symbolic rules is still reduced. In order to increase the interpretability of the rules, the FREx_SVM model was developed. In this model the fuzzy rules are extracted from trained SVMs. The FREx_SVM model can be applied to classification problems with n classes, not being restricted to binary classifications. However, despite the good performance of the FREx_SVM model in extracting linguistic rules, the classification performance of fuzzy classification system obtained is still lower than the SVM, since the partitions (fuzzy sets) of the input variables are predefined at the beginning of the process, and are fixed during the rule extraction process. The goal of this dissertation is, therefore, to extend the FREx_SVM model, so as to enable the automatic adjustment of the membership functions of the input variables through genetic algorithms. To assess the performance of the extended model, case studies were carried out in two databases: iris benchmark and frequency response analysis. The frequency response analysis is a noninvasive and non-destructive technique, because it preserves the characteristics of the equipment. However, the diagnosis is carried out by visual comparison and requires the assistance of an expert. Often, this diagnosis is subjective and inconclusive. The automatic adjustment of the membership functions associated with input variables reduced the error up to 13.38 per cent when compared to the configuration without this optimization. In some cases, the classification performance with membership functions optimization exceeds even those obtained by SVM.
16

[en] DISTANT SUPERVISION FOR RELATION EXTRACTION USING ONTOLOGY CLASS HIERARCHY-BASED FEATURES / [pt] SUPERVISÃO À DISTÂNCIA EM EXTRAÇÃO DE RELACIONAMENTOS USANDO CARACTERÍSTICAS BASEADAS EM HIERARQUIA DE CLASSES EM ONTOLOGIAS

PEDRO HENRIQUE RIBEIRO DE ASSIS 18 March 2015 (has links)
[pt] Extração de relacionamentos é uma etapa chave para o problema de identificação de uma estrutura em um texto em formato de linguagem natural. Em geral, estruturas são compostas por entidades e relacionamentos entre elas. As propostas de solução com maior sucesso aplicam aprendizado de máquina supervisionado a corpus anotados à mão para a criação de classificadores de alta precisão. Embora alcancem boa robustez, corpus criados à mão não são escaláveis por serem uma alternativa de grande custo. Neste trabalho, nós aplicamos um paradigma alternativo para a criação de um número considerável de exemplos de instâncias para classificação. Tal método é chamado de supervisão à distância. Em conjunto com essa alternativa, usamos ontologias da Web semântica para propor e usar novas características para treinar classificadores. Elas são baseadas na estrutura e semântica descrita por ontologias onde recursos da Web semântica são definidos. O uso de tais características tiveram grande impacto na precisão e recall dos nossos classificadores finais. Neste trabalho, aplicamos nossa teoria em um corpus extraído da Wikipedia. Alcançamos uma alta precisão e recall para um número considerável de relacionamentos. / [en] Relation extraction is a key step for the problem of rendering a structure from natural language text format. In general, structures are composed by entities and relationships among them. The most successful approaches on relation extraction apply supervised machine learning on hand-labeled corpus for creating highly accurate classifiers. Although good robustness is achieved, hand-labeled corpus are not scalable due to the expensive cost of its creation. In this work we apply an alternative paradigm for creating a considerable number of examples of instances for classification. Such method is called distant supervision. Along with this alternative approach we adopt Semantic Web ontologies to propose and use new features for training classifiers. Those features are based on the structure and semantics described by ontologies where Semantic Web resources are defined. The use of such features has a great impact on the precision and recall of our final classifiers. In this work, we apply our theory on corpus extracted from Wikipedia. We achieve a high precision and recall for a considerable number of relations.
17

[en] DEVELOPMENT OF ANALYTICAL METHODS FOR TRACE ELEMENTS DETERMINATIONS IN OILY AND VISCOUS SAMPLES BY ICP OES E ICP-MS / [pt] DESENVOLVIMENTO DE MÉTODOS ANALÍTICOS PARA DETERMINAÇÃO DE ELEMENTOS-TRAÇO EM AMOSTRAS OLEOSAS E PASTOSAS POR ICP OES E ICP- MS

ROSELI MARTINS DE SOUZA 25 September 2007 (has links)
[pt] Métodos de análise para determinação de elementos-traço em amostras oleosas e pastosas são necessários, por exemplo, no caso do petróleo e em suas frações mais pesadas, para os quais os elementos-traço indicam características do tipo do petróleo, correlacionando-o com a localização geográfica da jazida. Além disso, a quantificação destes elementos tem utilidade nas interpretações geoquímicas relacionadas com maturidade térmica, correlação óleo-óleo e migração primária e secundária do óleo e na obtenção de informações que permitem a criação de estratégias para realizar o refino do óleo, prevenindo contaminação dos catalisadores, corrosão de equipamento e potencial dano ambiental. No caso de óleos e gorduras vegetais, a presença destes elementos, mesmo em baixas concentrações ((mi)g g-1), pode acelerar processos oxidativos que geram peróxidos, aldeídos, cetonas, ácidos e epóxidos, que além de causarem a rancidez prematura dos óleos produzem efeitos patológicos no sistema digestivo e potencializam a ação de alguns carcinogênicos. As técnicas espectrométricas baseadas no uso do plasma (ICP OES e ICP-MS) estão entre as mais utilizadas na determinação de elementos- traço nesses tipos de amostra. Porém, os procedimentos de preparação de amostra mais tradicionalmente usados são os que destroem a matriz das amostras, solubilizando-as em ácidos inorgânicos fortes. Neste trabalho, novas estratégias de preparação de amostras de petróleo, óleo diesel, asfaltenos, óleos comestíveis, manteiga e margarina foram desenvolvidas visando à utilização do tradicional procedimento de nebulização de solução para introdução de amostra no plasma. No caso do óleo diesel, a estratégia avaliada foi a de preparação de amostras na forma de emulsão com n-propanol. Nesse caso, um planejamento fatorial indicou que fatores importantes para a determinação de elementos refratários foram tanto a massa de amostra na composição da emulsão (até 25% em massa) quanto a acidificação da emulsão. As amostras de óleo cru, óleos vegetais e gorduras vegetais foram preparadas como microemulsão em n-propanol. Alternativamente, um procedimento de extração assistida por ultra-som foi desenvolvido. A emulsão de óleo cru com n-propanol mostrou ser um bom meio de estabilização dos analitos em solução. No caso da extração ácida assistida por ultra-som para óleo cru, um planejamento fatorial mostrou que os fatores importantes para a determinação de elementos-traço foram, o tempo de aquecimento da amostra, a concentração do ácido nítrico e a exposição ao ultra-som. Para as amostras de óleos e gorduras vegetais, a otimização das proporções de componentes na emulsão com n- propanol proporcionou boa estabilidade e homogeneidade das amostras de óleo de oliva e óleo de soja (6 % em massa de óleo) e para margarina e manteiga (5 % m/m de óleo). Para o método da extração ácida assistida por ultra-som, as condições otimizadas para a preparação da amostra permitiram também a análise por ICP-MS, cujos resultados são discutidos e comparados com os resultados obtidos por ICP OES. Para as amostras de asfaltenos, o procedimento proposto foi o de extração em HNO3 concentrado assistida por ultrasom. Nesse caso, os mesmos parâmetros otimizados para o óleo cru foram usados. Os parâmetros operacionais foram otimizados para obtenção dos parâmetros de mérito, sendo a aplicação dos métodos propostos confirmada por testes de recuperação além de comparação com resultados obtidos com procedimentos tradicionais para esse tipo de amostra. Assim, nessa tese, foram desenvolvidos métodos para a determinação de Cr, Mo, V e Ti em óleo diesel e em óleo combustível, Cd, Co, Cr, Fe, Mn, Mo, Ni, Ti, V e Zn em óleo cru, Fe, Ni e V em asfaltenos. Cd, Co, Cr, Cu, Mn e Ni foram determinados em óleos e gorduras comestíveis utilizando preparação de amostra como microemulsão em n-propanol. Já Al, Ca, Cd, Cu, Fe, Mg, Mn, Ni, V e Zn foram determinados após extração ácida assistida por / [en] Analytical methods for the determination of trace elements in oily and viscous samples are necessary, for example, in the case of crude oil and its heavy fractions, where trace elements indicate specific oil characteristics and the geographic location of the natural deposit. Moreover, the quantification of these elements is relevant for geochemical interpretations concerning thermal maturity, oil-oil correlations and primary and secondary oil migration. Knowledge on trace element characteristics of crude oil is also important in oil refining strategies to prevent contamination of catalysts as well as equipment corrosion, and to minimize environmental pollution. In the case of vegetal oils and fats, the presence of certain elements, even in low concentrations ((mi)g g-1); can speed up oxidative processes and premature rancidity of oils, which may cause pathological effects in the digestive system, including cancer. Spectrometric techniques based on inductively coupled plasma (ICP OES and ICPMS) are extensively used for determination of trace elements in such type of samples due to their sensitivities and multielemental features. In the case of oils and fats, the samples have to be generally decomposed by wet-ashing procedures with mineral acids, prior to the elemental determinations. In this work, new strategies for sample preparation of crude oil, diesel, asphaltenes, edible oils, butter and margarine have been developed, which allow the use of the traditional procedure for sample introduction into the ICP by solution nebulization. In the case of diesel oil, the proposed strategy was the preparation of samples as emulsions with n-propanol. Factorial design studies showed that the important factors for the quantitative determination of refractory metals were the sample amount in the emulsion (up to 25% in weight) and the acidification of the emulsion. Crude oil samples, vegetable oils and fats have been prepared as n-propanol microemulsions. Alternatively, an ultrasound-assisted trace metal extraction procedure was developed. The crude oil emulsions with n-propanol were found to be a good environment to keep the analytes in solution. In the case of the ultrasound-assisted acid extraction for crude oil, a factorial design indicated that the important factors for the determination of trace elements have been the sample heating time, the nitric acid concentration and the ultrasound exposure time. For vegetable oils and fats, the optimization of the npropanol emulsion components provided good stability and homogeneity olive and soy oils (6 % of oil in weight) and for margarine and butter (5 % of oil in weight). For the ultrasound-assisted acid extraction, the optimized conditions for sample preparation also allowed the analysis of the extracts by ICP-MS, which results were compared with the ones obtained by ICP OES. For asphaltene samples, the proposed procedure was the ultrasound- assisted acid extraction in concentrated HNO3 using similar conditions employed for crude oil. The figures of merit for the proposed methods were achieved under optimized experimental and instrumental conditions and validations were performed by analysis of certified reference materials (when available), recovery tests, and by comparison of results obtained using traditional sample preparation procedures for this type of sample. Methods for the determination of Cr, Mo, V and Ti in fuel and diesel oils, for Cd, Co, Cr, Fe, Mn, Mg, Ni, Ti, V and Zn in crude oil and for Fe, Ni and V in asphaltenes have been developed. Cd, Co, Cr, Cu, Mn and Ni in edible oils and fats have been determined using the microemulsification in n-propanol, while Al, Ca, Cd, Cu, Fe, Mg, Mn, Ni, V and Zn have been determined after acid extraction in HNO3. The analyses were carried out by using the external calibration method with internal standardization by Sc (in the case of ICP OES). The ultrasound-assisted acid extraction method for t
18

[en] FUZZY RULES EXTRACTION FROM SUPPORT VECTOR MACHINES (SVM) FOR MULTI-CLASS CLASSIFICATION / [pt] EXTRAÇÃO DE REGRAS FUZZY PARA MÁQUINAS DE VETOR SUPORTE (SVM) PARA CLASSIFICAÇÃO EM MÚLTIPLAS CLASSES

ADRIANA DA COSTA FERREIRA CHAVES 25 October 2006 (has links)
[pt] Este trabalho apresenta a proposta de um novo método para a extração de regras fuzzy de máquinas de vetor suporte (SVMs) treinadas para problemas de classificação. SVMs são sistemas de aprendizado baseados na teoria estatística do aprendizado e apresentam boa habilidade de generalização em conjuntos de dados reais. Estes sistemas obtiveram sucesso em vários tipos de problemas. Entretanto, as SVMs, da mesma forma que redes neurais (RN), geram um modelo caixa preta, isto é, um modelo que não explica o processo pelo qual sua saída é obtida. Alguns métodos propostos para reduzir ou eliminar essa limitação já foram desenvolvidos para o caso de classificação binária, embora sejam restritos à extração de regras simbólicas, isto é, contêm funções ou intervalos nos antecedentes das regras. No entanto, a interpretabilidade de regras simbólicas ainda é reduzida. Deste modo, propõe-se, neste trabalho, uma técnica para a extração de regras fuzzy de SVMs treinadas, com o objetivo de aumentar a interpretabilidade do conhecimento gerado. Além disso, o modelo proposto foi desenvolvido para classificação em múltiplas classes, o que ainda não havia sido abordado até agora. As regras fuzzy obtidas são do tipo se x1 pertence ao conjunto fuzzy C1, x2 pertence ao conjunto fuzzy C2,..., xn pertence ao conjunto fuzzy Cn, então o ponto x = (x1,...,xn) é da classe A. Para testar o modelo foram realizados estudos de caso detalhados com quatro bancos de dados: Íris, Wine, Bupa Liver Disorders e Winconsin Breast Cancer. A cobertura das regras resultantes da aplicação desse modelo nos testes realizados mostrou-se muito boa, atingindo 100% no caso da Íris. Após a geração das regras, foi feita uma avaliação das mesmas, usando dois critérios, a abrangência e a acurácia fuzzy. Além dos testes acima mencionados foi comparado o desempenho dos métodos de classificação em múltiplas classes usados no trabalho. / [en] This text proposes a new method for fuzzy rule extraction from support vector machines (SVMs) trained to solve classification problems. SVMs are learning systems based on statistical learning theory and present good ability of generalization in real data base sets. These systems have been successfully applied to a wide variety of application. However SVMs, as well as neural networks, generates a black box model, i.e., a model which does not explain the process used in order to obtain its result. Some considered methods to reduce this limitation already has been proposed for the binary classification case, although they are restricted to symbolic rules extraction, and they have, in their antecedents, functions or intervals. However, the interpretability of the symbolic generated rules is small. Hence, to increase the linguistic interpretability of the generating rules, we propose a new technique for extracting fuzzy rules of a trained SVM. Moreover, the proposed model was developed for classification in multiple classes, which was not introduced till now. Fuzzy rules obtained are presented in the format if x1 belongs to the fuzzy set C1, x2 belongs to the fuzzy set C2 , … , xn belongs to the fuzzy set Cn , then the point x=(x1, x2, …xn) belongs to class A. For testing this new model, we performed detailed researches on four data bases: Iris, Wine, Bupa Liver Disorders and Wisconsin Breast Cancer. The rules´ coverage resultant of the application of this method was quite good, reaching 100% in Iris case. After the rules generation, its evaluation was performed using two criteria: coverage and accuracy. Besides the testing above, the performance of the methods for multi-class SVM described in this work was evaluated.
19

[en] ENVIRONMENT CHANGES DETECTION: A PROACTIVE SYSTEM TO MONITOR MOVING OBJECTS / [pt] DETECÇÃO DE MUDANÇAS NO AMBIENTE: UM SISTEMA PROATIVO PARA MONITORAR OBJETOS MÓVEIS

FABIO DA COSTA ALBUQUERQUE 13 February 2017 (has links)
[pt] Sistemas de posicionamento, combinados com tecnologias de comunicação de baixo custo, abrem possibilidades interessantes para implementar aplicações em tempo real que monitoram objetos móveis e que apoiam sistemas de tomada de decisão. Inicialmente, esta dissertação discute requisitos básicos para aplicações proativas de monitoramento em tempo real. Em seguida, propõe uma arquitetura para aplicações proativas que monitoram objetos móveis, explorando a semântica da trajetória e a dinâmica do ambiente. Por fim, fornece um exemplo sobre como uma aplicação que monitora uma frota de caminhões pode se tornar proativa, utilizando notícias sobre condições da malha viária, a partir da publicação de dados em texto não estruturado através da Internet. A dissertação descreve como estruturar e georreferenciar as notícias, utilizando serviços de geocodificação. / [en] Positioning systems, combined with inexpensive communication technologies, open interesting possibilities to implement real-time applications that monitor moving objects and that support decision making. This dissertation first discusses basic requirements for proactive real-time monitoring applications. Then, it proposes an architecture to deploy applications that monitor moving objects, are pro-active, explore trajectory semantics and are sensitive to environment dynamics. Lastly, this dissertation provides an example of how an application that monitors a fleet of trucks can become proactive, using unstructured text information available on Internet focused on road conditions change. The dissertation describes how to structure and geo-reference the text, using available geocoding services.
20

[en] DATA CLUSTERING: ANALYSIS OF METHODS AND DEVELOPMENT OF APPLICATION FOR CLUSTER ANALYSIS / [pt] AGRUPAMENTOS DE DADOS: AVALIAÇÃO DE MÉTODOS E DESENVOLVIMENTO DE APLICATIVO PARA ANÁLISE DE GRUPOS

MARCOS NEVES DO VALE 23 March 2006 (has links)
[pt] A enorme massa de dados que é gerada pelas diversas empresas diariamente pode conter informações importantes que não são fáceis de serem extraídas. Com isso advém a necessidade de analisá-los automaticamente, de forma adequada, extraindo informação útil que pode agregar algum tipo de conhecimento. Uma das formas de se analisar os dados automaticamente é através da análise de agrupamentos. Ela procura encontrar grupos de dados semelhantes entre si. As técnicas de análise de agrupamentos revelam como os dados estão estruturados e resultam em um melhor entendimento sobre o negócio. Existe ainda hoje uma escassez de ferramentas para esse fim. Em um problema real de agrupamento de dados convém analisar os dados através da utilização de diferentes métodos, a fim de buscar aquele que melhor se adapte ao problema. Porém, as ferramentas existentes hoje em dia não são integradas, onde cada ferramenta possui um subconjunto dos métodos existentes de agrupamento. Dessa forma o usuário fica limitado à utilização de uma ferramenta específica ou é obrigado a conhecer diversas ferramentas diferentes, de forma a melhor analisar os dados de sua empresa. Esta dissertação apresenta uma revisão detalhada de todo o processo de análise de agrupamentos e o desenvolvimento de um aplicativo que visa não apenas a atender as deficiências presentes na maioria das ferramentas com esse fim, mas também a auxiliar, de forma mais completa, todo o processo de análise dos grupos. O aplicativo desenvolvido é de fácil utilização e permite que a ele sejam incorporados outros métodos eventualmente desenvolvidos pelo usuário. O aplicativo foi avaliado em três estudos de casos, os quais visam demonstrar a facilidade de uso do aplicativo, assim como avaliar as vantagens do uso de métodos de natureza fuzzy em uma base de dados real. / [en] The enormous data mass that is daily generated by several companies can contain critical information that might not be easily retrieved, considering that the amount of data is generally huge and/or the target information might be spread through different data bases. Taking that into consideration, it might be necessary to properly analyze the data in an automatic way, so useful and valuable information can be extracted. One way of automatically analyzing data is through cluster analysis. This type of analysis searches for related similar data. These clusters settle a data structure model and with proper analysis can reveal important information. The techniques used in cluster analysis disclose how data is structured and allow a better knowledge of the business. Still today there is a lack of tools for this purpose. On a real situation with a data cluster problem it is wise to analyze the data through different methods, so we can find the one that better fits the problem. However, today the existing tools are not integrated, and each tool has a subgroup of existing cluster methods. This way the user stays limited to use only one specific tool or is forced to be aware of a number of different tools, so he would be able to better analyze the company data. This study presents a detailed review of the whole group analysis process and develops an application that not only suggests how to cover the currently lack of tools for this purpose, but also to help the complete cluster analysis process in a more extended way. The application developed is user friendly and allows other methods developed by users to be incorporated. The application has been evaluated into three case studies with the purpose of demonstrating its user friendly, as well as evaluating the advantages of using fuzzy methods on a true data base.

Page generated in 0.0547 seconds