11 |
[en] NCE: AN ALGORITHM FOR CONTENT EXTRACTION IN NEWS PAGES / [pt] NCE: UM ALGORITMO PARA EXTRAÇÃO DE CONTEÚDO DE PÁGINAS DE NOTÍCIASEVELIN CARVALHO FREIRE DE AMORIM 15 September 2017 (has links)
[pt] A extração de entidades de páginas web é comumente utilizada para melhorar a qualidade de muitas tarefas realizadas por máquinas de busca como detecção de páginas duplicadas e ranking. Essa tarefa se torna ainda mais relevante devido ao crescente volume de informação da internet com as quais as máquinas de busca precisam lidar. Existem diversos algoritmos para detecção de conteúdo na literatura, alguns orientados a sites e outros que utilizam uma abordagem mais local e são chamados de algoritmos orientados a páginas. Os algoritmos orientados a sites utilizam várias páginas de um mesmo site para criar um modelo que detecta o conteúdo relevante da página. Os algoritmos orientados a páginas detectam conteúdo avaliando as características de cada página, sem comparar com outras páginas. Neste trabalho apresentamos um algoritmo, chamado NCE ( News Content Extractor), orientado a página e que se propõe a realizar extração de entidades em páginas de notícias. Ele utiliza atributos de uma árvore DOM para localizar determinadas entidades de uma página de notícia, mais especificamente, o título e o corpo da notícia. Algumas métricas são apresentadas e utilizadas para aferir a qualidade do NCE. Quando comparado com outro método baseado em página e que utiliza atributos visuais, o NCE se mostrou superior tanto em relação à qualidade de extração quanto no que diz respeito ao tempo de execução. / [en] The entity extraction of web pages is commonly used to enhance the quality of tasks performed by search engines, like duplicate pages and ranking. The relevance of entity extraction is crucial due to the fact that
search engines have to deal with fast growning volume of information on the web. There are many algorithms that detect entities in the literature, some using site level strategy and others using page level strategy. The site level strategy uses many pages from the same site to create a model that extracts templates. The page level strategy creates a model to extract templates according to features of the page. Here we present an algorithm, called NCE (News Content Extractor), that uses a page level strategy and
its objective is to perform entity extraction on news pages. It uses features from a DOM tree to search for certain entities, namely, the news title and news body. Some measures are presented and used to evaluate how good NCE is. When we compare NCE to a page level algorithm that uses visual features, NCE shows better execution time and extraction quality.
|
12 |
[pt] REVISITANDO O MARCHING CUBES 33: GARANTIAS TOPOLÓGICAS E QUALIDADE DA MALHA / [en] REVISITING MARCHING CUBES 33: TOPOLOGICAL GUARANTEES AND MESH QUALITY16 December 2021 (has links)
[pt] O Marching Cubes 33 proposto por Chernyaev é um dos primeiros algoritmos
de extração de isosuperfície destinados a preservar a topologia do
interpolante trilinear. Neste trabalho, abordamos três problemas no algoritmo
do Marching Cubes 33, dois dos quais estão relacionados com a sua
descrição original. Em particular, resolvemos um problema no procedimento
para resolver ambiguidades interiores do Marching Cubes 33, que impede
que a isosuperfície seja extraída corretamente para o caso ambíguo 13.5.
O algoritmo Marching Cubes é considerado simples, robusto e com baixo
custo computacional, características que contribuíram para torná-lo popular
entre os algoritmo de extração de isosuperfícies. Porém no que se refere a
qualidade da triangulação da malha resultante, não raramente observamos
um grande número de triângulos finos (triângulos com ângulos pequenos)
e até mesmo degenerados (triângulos com área zero). Buscando unir à coerência
topológica uma melhor qualidade na triangulação gerada, propomos
uma extensão da tabela de triangulação proposta por Chernyaev, de modo
que os vértices da grade passem a fazer parte da triangulação, eliminando
assim a possibilidade de geração de triângulos degenerados. Esta nova tabela
é utilizada para evitar a criação de triângulos finos, através de pequenas
alterações do campo escalar nos vértices da grade. / [en] Chernyaev s Marching Cubes 33 is one of the first isosurface extraction
algorithms intended to preserve the topology of the trilinear interpolant.
In this work, we address three issues in the Marching Cubes 33 algorithm,
two of which are related to its original description. In particular, we solve a
problem with the core disambiguation procedure of Marching Cubes 33 that
prevents the extraction of topologically correct isosurfaces for the ambiguous
configuration 13.5 thus fixing the original formulation of the algorithm.
The Marching Cubes algorithm is considered simple, robust and with low
computational cost, characteristics that contributed to make it the most
popular algorithm for isosurfaces extraction. However, regarding the quality
of the resulting mesh, frequently it is possible to observe a large number of
badly-shaped triangles (triangles with small angles) and even degenerate
(triangles with zero area) ones. Seeking to unite a better triangulation
quality of the resulting mesh to the topological consistency, we propose
an extension of the triangulation table proposed by Chernyaev, so that
the vertices of the grid become part of the triangulation generated, thus
eliminating the possibility of generation of degenerate triangles. This new
table is used to avoid the creation of badly-shaped triangles via small
changes of the scalar field on the vertices of the grid.
|
13 |
[en] AUTOMATIC SYNTHESIS OF FUZZY INFERENCE SYSTEMS FOR CLASSIFICATION / [pt] SÍNTESE AUTOMÁTICA DE SISTEMAS DE INFERÊNCIA FUZZY PARA CLASSIFICAÇÃOJORGE SALVADOR PAREDES MERINO 25 July 2016 (has links)
[pt] Hoje em dia, grande parte do conhecimento acumulado está armazenado
em forma de dados. Para muitos problemas de classificação,
tenta-se aprender a relação entre um conjunto de variáveis (atributos) e
uma variável alvo de interesse. Dentre as ferramentas capazes de atuar como
modelos representativos de sistemas reais, os Sistemas de Inferência Fuzzy
são considerados excelentes com respeito à representação do conhecimento
de forma compreensível, por serem baseados em regras linguísticas. Este
quesito de interpretabilidade linguística é relevante em várias aplicações em
que não se deseja apenas um modelo do tipo caixa preta, que, por mais
precisão que proporcione, não fornece uma explicação de como os resultados
são obtidos. Esta dissertação aborda o desenvolvimento de um Sistema
de Inferência Fuzzy de forma automática, buscando uma base de regras que
valorize a interpretabilidade linguística e que, ao mesmo tempo, forneça uma
boa acurácia. Para tanto, é proposto o modelo AutoFIS-Class, um método
automático para a geração de Sistemas de Inferência Fuzzy para problemas
de classificação. As características do modelo são: (i) geração de premissas
que garantam critérios mínimos de qualidade, (ii) associação de cada premissa
a um termo consequente mais compatível e (iii) agregação de regras
de uma mesma classe por meio de operadores que ponderem a influência
de cada regra. O modelo proposto é avaliado em 45 bases de dados benchmark
e seus resultados são comparados com modelos da literatura baseados
em Algoritmos Evolucionários. Os resultados comprovam que o Sistema de
Inferência gerado é competitivo, apresentando uma boa acurácia com um
baixo número de regras. / [en] Nowadays, much of the accumulated knowledge is stored as data. In
many classification problems the relationship between a set of variables
(attributes) and a target variable of interest must be learned. Among
the tools capable of modeling real systems, Fuzzy Inference Systems are
considered excellent with respect to the knowledge representation in a
comprehensible way, as they are based on inference rules. This is relevant
in applications where a black box model does not suffice. This model
may attain good accuracy, but does not explain how results are obtained.
This dissertation presents the development of a Fuzzy Inference System
in an automatic manner, where the rule base should favour linguistic
interpretability and at the same time provide good accuracy. In this sense,
this work proposes the AutoFIS-Class model, an automatic method for
generating Fuzzy Inference Systems for classification problems. Its main
features are: (i) generation of premises to ensure minimum, quality criteria,
(ii) association of each rule premise to the most compatible consequent
term; and (iii) aggregation of rules for each class through operator that
weigh the relevance of each rule. The proposed model was evaluated for
45 datasets and their results were compared to existing models based on
Evolutionary Algorithms. Results show that the proposed Fuzzy Inference
System is competitive, presenting good accuracy with a low number of rules.
|
14 |
[pt] DOS TERMOS ÀS ENTIDADES NO DOMÍNIO DE PETRÓLEO / [en] FROM TERMS TO ENTITIES IN THE OIL AND GAS AREAWOGRAINE EVELYN FARIA DIAS 09 September 2021 (has links)
[pt] Este trabalho tem como objetivo identificar uma terminologia e expressões
relevantes do domínio de óleo e gás (OeG) e estruturá-la como uma taxonomia,
tendo em vista o levantamento de itens para a anotação de entidades dentro do
domínio. Para tanto, foi construída uma lista de termos relevantes da área, com base em diversas fontes, e, em seguida, a lista foi estruturada hierarquicamente por meio de regras. O processo de elaboração da taxonomia seguiu aspectos teóricometodológicos utilizados por diversos trabalhos semelhantes dentro da área. O trabalho procura evidenciar que a identificação de uma terminologia de um domínio técnico e a sua estruturação como taxonomia podem servir como a primeira etapa do levantamento de entidades de um domínio. Por conta disso, o trabalho também se propõe a discutir estratégias para identificação de entidade mencionada (EM) e possibilitar um diálogo entre duas áreas: Processamento de Linguagem Natural (PLN) e Linguística. De maneira geral, espera-se que a taxonomia ajudar a suprir, mesmo que de forma modesta, a escassez de recursos linguísticos para as técnicas do Processamento de Linguagem Natural (PLN) e da Extração de Informação (EI), dentro da área de óleo e gás. / [en] This work aims to identify a terminology and relevant expressions of the oil
and gas domain and structure it as a taxonomy. To this end, a list of relevant terms
in the area was built, based on various sources, and then the list was structured
hierarchically by rules. The taxonomy elaboration process followed theoretical and
methodological aspects used by several similar works within the area. The work
tries to show that the identification of a technical domain terminology and its
structuring as a taxonomy can serve as the first stage of the identification of entities
in a domain. Because of this, the work also proposes to discuss strategies for
identifying named entity and to enable a dialogue between two areas: Natural
Language Processing (NLP) and Linguistics. In general, the taxonomy presented is
expected to supply, at least in a modest way, the lack of linguistic resources for
techniques of Natural Language Processing (NLP) and Information Extraction (EI),
within the area of oil and gas.
|
15 |
[en] HYBRID SYSTEM FOR RULE EXTRACTION APPLIED TO DIAGNOSIS OF POWER TRANSFORMERS / [pt] SISTEMA HÍBRIDO DE EXTRAÇÃO DE REGRAS APLICADO A DIAGNÓSTICO DE TRANSFORMADORESCINTIA DE FARIA FERREIRA CARRARO 28 November 2012 (has links)
[pt] Este trabalho tem como objetivo construir um classificador baseado em
regras de inferência fuzzy, as quais são extraídas a partir de máquinas de vetor
suporte (SVMs) e ajustadas com o auxílio de um algoritmo genético. O
classificador construído visa a diagnosticar transformadores de potência. As
SVMs são sistemas de aprendizado baseados na teoria do aprendizado
estatístico e apresentam boa habilidade de generalização em conjuntos de
dados reais. SVMs, da mesma forma que redes neurais (RN), geram um
modelo caixa preta, isto é, um modelo que não explica o processo pelo qual
sua saída é obtida. Entretanto, para alguns problemas, o conhecimento sobre
como a classificação foi obtida é tão importante quanto a classificação
propriamente dita. Alguns métodos propostos para reduzir ou eliminar essa
limitação já foram desenvolvidos, embora sejam restritos à extração de regras
simbólicas, isto é, contêm funções ou intervalos nos antecedentes das regras.
No entanto, a interpretabilidade de regras simbólicas ainda é reduzida. De forma
a aumentar a interpretabilidade das regras, o modelo FREx_SVM foi
desenvolvido. Neste modelo as regras fuzzy são extraídas a partir de SVMs
treinadas. O modelo FREx_SVM pode ser aplicado a problemas de classificação
com n classes, não sendo restrito a classificações binárias. Entretanto, apesar
do bom desempenho do modelo FREx_SVM na extração de regras linguísticas,
o desempenho de classificação do sistema de inferência fuzzy obtido é ainda
inferior ao da SVM, uma vez que as partições (conjuntos fuzzy) das variáveis de
entrada são definidas a priori, permanecendo fixas durante o processo de
aprendizado das regras. O objetivo desta dissertação é, portanto, estender o
modelo FREx_SVM, de forma a permitir o ajuste automático das funções de
pertinência das variáveis de entrada através de algoritmos genéticos. Para
avaliar o desempenho do modelo estendido, foram realizados estudos de caso
em dois bancos de dados: Iris, como uma base benchmark, e a análise de
resposta em frequência. A análise de resposta em frequência é uma técnica não
invasiva e não destrutiva, pois preserva as características dos equipamentos. No
entanto, o diagnóstico é feito de modo visual comparativo e requer o auxílio de
um especialista. Muitas vezes, este diagnóstico é subjetivo e inconclusivo. O
ajuste automático das funções de pertinência correspondentes aos conjuntos
fuzzy associados às variáveis de entrada reduziu o erro de classificação em até
13,38 por cento em relação à configuração sem este ajuste. Em alguns casos, o
desempenho da configuração com ajuste das funções de pertinência supera até
mesmo aquele obtido pela própria SVM. / [en] This work aims to develop a classifier model based on fuzzy inference
rules, which are extracted from support vector machines (SVMs) and optimized
by a genetic algorithm. The classifier built aims to diagnose power transformers.
The SVMs are learning systems based on statistical learning theory and have
provided good generalization performance in real data sets. SVMs, as artificial
neural networks (NN), generate a black box model, that is, a model that does not
explain the process by which its output is obtained. However, for some
applications, the knowledge about how the classification was obtained is as
important as the classification itself. Some proposed methods to reduce or
eliminate this limitation have already been developed, although they are
restricted to the extraction of symbolic rules, i.e. contain functions or ranges in
the rules´ antecedents. Nevertheless, the interpretability of symbolic rules is still
reduced. In order to increase the interpretability of the rules, the FREx_SVM
model was developed. In this model the fuzzy rules are extracted from trained
SVMs. The FREx_SVM model can be applied to classification problems with n
classes, not being restricted to binary classifications. However, despite the good
performance of the FREx_SVM model in extracting linguistic rules, the
classification performance of fuzzy classification system obtained is still lower
than the SVM, since the partitions (fuzzy sets) of the input variables are predefined
at the beginning of the process, and are fixed during the rule extraction
process. The goal of this dissertation is, therefore, to extend the FREx_SVM
model, so as to enable the automatic adjustment of the membership functions of
the input variables through genetic algorithms. To assess the performance of the
extended model, case studies were carried out in two databases: iris benchmark
and frequency response analysis. The frequency response analysis is a noninvasive
and non-destructive technique, because it preserves the characteristics
of the equipment. However, the diagnosis is carried out by visual comparison and
requires the assistance of an expert. Often, this diagnosis is subjective and
inconclusive. The automatic adjustment of the membership functions associated
with input variables reduced the error up to 13.38 per cent when compared to the
configuration without this optimization. In some cases, the classification
performance with membership functions optimization exceeds even those
obtained by SVM.
|
16 |
[en] DISTANT SUPERVISION FOR RELATION EXTRACTION USING ONTOLOGY CLASS HIERARCHY-BASED FEATURES / [pt] SUPERVISÃO À DISTÂNCIA EM EXTRAÇÃO DE RELACIONAMENTOS USANDO CARACTERÍSTICAS BASEADAS EM HIERARQUIA DE CLASSES EM ONTOLOGIASPEDRO HENRIQUE RIBEIRO DE ASSIS 18 March 2015 (has links)
[pt] Extração de relacionamentos é uma etapa chave para o problema de
identificação de uma estrutura em um texto em formato de linguagem natural. Em
geral, estruturas são compostas por entidades e relacionamentos entre elas. As
propostas de solução com maior sucesso aplicam aprendizado de máquina
supervisionado a corpus anotados à mão para a criação de classificadores de alta
precisão. Embora alcancem boa robustez, corpus criados à mão não são escaláveis
por serem uma alternativa de grande custo. Neste trabalho, nós aplicamos um
paradigma alternativo para a criação de um número considerável de exemplos de
instâncias para classificação. Tal método é chamado de supervisão à distância. Em
conjunto com essa alternativa, usamos ontologias da Web semântica para propor e
usar novas características para treinar classificadores. Elas são baseadas na
estrutura e semântica descrita por ontologias onde recursos da Web semântica são
definidos. O uso de tais características tiveram grande impacto na precisão e recall
dos nossos classificadores finais. Neste trabalho, aplicamos nossa teoria em um
corpus extraído da Wikipedia. Alcançamos uma alta precisão e recall para um
número considerável de relacionamentos. / [en] Relation extraction is a key step for the problem of rendering a structure
from natural language text format. In general, structures are composed by entities
and relationships among them. The most successful approaches on relation
extraction apply supervised machine learning on hand-labeled corpus for creating
highly accurate classifiers. Although good robustness is achieved, hand-labeled
corpus are not scalable due to the expensive cost of its creation. In this work we
apply an alternative paradigm for creating a considerable number of examples of
instances for classification. Such method is called distant supervision. Along with
this alternative approach we adopt Semantic Web ontologies to propose and use
new features for training classifiers. Those features are based on the structure and
semantics described by ontologies where Semantic Web resources are defined.
The use of such features has a great impact on the precision and recall of our final
classifiers. In this work, we apply our theory on corpus extracted from Wikipedia.
We achieve a high precision and recall for a considerable number of relations.
|
17 |
[en] DEVELOPMENT OF ANALYTICAL METHODS FOR TRACE ELEMENTS DETERMINATIONS IN OILY AND VISCOUS SAMPLES BY ICP OES E ICP-MS / [pt] DESENVOLVIMENTO DE MÉTODOS ANALÍTICOS PARA DETERMINAÇÃO DE ELEMENTOS-TRAÇO EM AMOSTRAS OLEOSAS E PASTOSAS POR ICP OES E ICP- MSROSELI MARTINS DE SOUZA 25 September 2007 (has links)
[pt] Métodos de análise para determinação de elementos-traço em
amostras oleosas
e pastosas são necessários, por exemplo, no caso do
petróleo e em suas frações mais
pesadas, para os quais os elementos-traço indicam
características do tipo do petróleo,
correlacionando-o com a localização geográfica da jazida.
Além disso, a
quantificação destes elementos tem utilidade nas
interpretações geoquímicas
relacionadas com maturidade térmica, correlação óleo-óleo
e migração primária e
secundária do óleo e na obtenção de informações que
permitem a criação de
estratégias para realizar o refino do óleo, prevenindo
contaminação dos catalisadores,
corrosão de equipamento e potencial dano ambiental. No
caso de óleos e gorduras
vegetais, a presença destes elementos, mesmo em baixas
concentrações ((mi)g g-1), pode
acelerar processos oxidativos que geram peróxidos,
aldeídos, cetonas, ácidos e
epóxidos, que além de causarem a rancidez prematura dos
óleos produzem efeitos
patológicos no sistema digestivo e potencializam a ação de
alguns carcinogênicos. As
técnicas espectrométricas baseadas no uso do plasma (ICP
OES e ICP-MS) estão
entre as mais utilizadas na determinação de elementos-
traço nesses tipos de amostra.
Porém, os procedimentos de preparação de amostra mais
tradicionalmente usados são
os que destroem a matriz das amostras, solubilizando-as em
ácidos inorgânicos fortes.
Neste trabalho, novas estratégias de preparação de
amostras de petróleo, óleo diesel,
asfaltenos, óleos comestíveis, manteiga e margarina foram
desenvolvidas visando à
utilização do tradicional procedimento de nebulização de
solução para introdução de
amostra no plasma. No caso do óleo diesel, a estratégia
avaliada foi a de preparação
de amostras na forma de emulsão com n-propanol. Nesse
caso, um planejamento
fatorial indicou que fatores importantes para a
determinação de elementos refratários
foram tanto a massa de amostra na composição da emulsão
(até 25% em massa)
quanto a acidificação da emulsão. As amostras de óleo cru,
óleos vegetais e gorduras
vegetais foram preparadas como microemulsão em n-propanol.
Alternativamente, um procedimento de extração assistida
por ultra-som foi desenvolvido. A emulsão de
óleo cru com n-propanol mostrou ser um bom meio de
estabilização dos analitos em
solução. No caso da extração ácida assistida por ultra-som
para óleo cru, um
planejamento fatorial mostrou que os fatores importantes
para a determinação de
elementos-traço foram, o tempo de aquecimento da amostra,
a concentração do ácido
nítrico e a exposição ao ultra-som. Para as amostras de
óleos e gorduras vegetais, a
otimização das proporções de componentes na emulsão com n-
propanol proporcionou
boa estabilidade e homogeneidade das amostras de óleo de
oliva e óleo de soja (6 %
em massa de óleo) e para margarina e manteiga (5 % m/m de
óleo). Para o método da
extração ácida assistida por ultra-som, as condições
otimizadas para a preparação da
amostra permitiram também a análise por ICP-MS, cujos
resultados são discutidos e
comparados com os resultados obtidos por ICP OES. Para as
amostras de asfaltenos,
o procedimento proposto foi o de extração em HNO3
concentrado assistida por ultrasom.
Nesse caso, os mesmos parâmetros otimizados para o óleo
cru foram usados. Os
parâmetros operacionais foram otimizados para obtenção dos
parâmetros de mérito,
sendo a aplicação dos métodos propostos confirmada por
testes de recuperação além
de comparação com resultados obtidos com procedimentos
tradicionais para esse tipo
de amostra. Assim, nessa tese, foram desenvolvidos métodos
para a determinação de
Cr, Mo, V e Ti em óleo diesel e em óleo combustível, Cd,
Co, Cr, Fe, Mn, Mo, Ni,
Ti, V e Zn em óleo cru, Fe, Ni e V em asfaltenos. Cd, Co,
Cr, Cu, Mn e Ni foram
determinados em óleos e gorduras comestíveis utilizando
preparação de amostra
como microemulsão em n-propanol. Já Al, Ca, Cd, Cu, Fe,
Mg, Mn, Ni, V e Zn foram
determinados após extração ácida assistida por / [en] Analytical methods for the determination of trace elements
in oily and viscous
samples are necessary, for example, in the case of crude
oil and its heavy fractions,
where trace elements indicate specific oil characteristics
and the geographic location
of the natural deposit. Moreover, the quantification of
these elements is relevant for
geochemical interpretations concerning thermal maturity,
oil-oil correlations and
primary and secondary oil migration. Knowledge on trace
element characteristics of
crude oil is also important in oil refining strategies to
prevent contamination of
catalysts as well as equipment corrosion, and to minimize
environmental pollution. In
the case of vegetal oils and fats, the presence of certain
elements, even in low
concentrations ((mi)g g-1); can speed up oxidative
processes and premature rancidity of
oils, which may cause pathological effects in the
digestive system, including cancer.
Spectrometric techniques based on inductively coupled
plasma (ICP OES and ICPMS)
are extensively used for determination of trace elements
in such type of samples
due to their sensitivities and multielemental features. In
the case of oils and fats, the
samples have to be generally decomposed by wet-ashing
procedures with mineral
acids, prior to the elemental determinations. In this
work, new strategies for sample
preparation of crude oil, diesel, asphaltenes, edible
oils, butter and margarine have
been developed, which allow the use of the traditional
procedure for sample
introduction into the ICP by solution nebulization. In the
case of diesel oil, the
proposed strategy was the preparation of samples as
emulsions with n-propanol.
Factorial design studies showed that the important factors
for the quantitative
determination of refractory metals were the sample amount
in the emulsion (up to
25% in weight) and the acidification of the emulsion.
Crude oil samples, vegetable
oils and fats have been prepared as n-propanol
microemulsions. Alternatively, an
ultrasound-assisted trace metal extraction procedure was
developed. The crude oil
emulsions with n-propanol were found to be a good
environment to keep the analytes
in solution. In the case of the ultrasound-assisted acid
extraction for crude oil, a factorial design indicated
that the important factors for the determination of trace
elements have been the sample heating time, the nitric
acid concentration and the
ultrasound exposure time. For vegetable oils and fats, the
optimization of the npropanol
emulsion components provided good stability and
homogeneity olive and
soy oils (6 % of oil in weight) and for margarine and
butter (5 % of oil in weight). For
the ultrasound-assisted acid extraction, the optimized
conditions for sample
preparation also allowed the analysis of the extracts by
ICP-MS, which results were
compared with the ones obtained by ICP OES. For asphaltene
samples, the proposed
procedure was the ultrasound- assisted acid extraction in
concentrated HNO3 using
similar conditions employed for crude oil. The figures of
merit for the proposed
methods were achieved under optimized experimental and
instrumental conditions
and validations were performed by analysis of certified
reference materials (when
available), recovery tests, and by comparison of results
obtained using traditional
sample preparation procedures for this type of sample.
Methods for the determination
of Cr, Mo, V and Ti in fuel and diesel oils, for Cd, Co,
Cr, Fe, Mn, Mg, Ni, Ti, V and
Zn in crude oil and for Fe, Ni and V in asphaltenes have
been developed. Cd, Co, Cr,
Cu, Mn and Ni in edible oils and fats have been determined
using the microemulsification
in n-propanol, while Al, Ca, Cd, Cu, Fe, Mg, Mn, Ni, V and
Zn have
been determined after acid extraction in HNO3. The
analyses were carried out by
using the external calibration method with internal
standardization by Sc (in the case
of ICP OES). The ultrasound-assisted acid extraction
method for t
|
18 |
[en] FUZZY RULES EXTRACTION FROM SUPPORT VECTOR MACHINES (SVM) FOR MULTI-CLASS CLASSIFICATION / [pt] EXTRAÇÃO DE REGRAS FUZZY PARA MÁQUINAS DE VETOR SUPORTE (SVM) PARA CLASSIFICAÇÃO EM MÚLTIPLAS CLASSESADRIANA DA COSTA FERREIRA CHAVES 25 October 2006 (has links)
[pt] Este trabalho apresenta a proposta de um novo método para
a extração de
regras fuzzy de máquinas de vetor suporte (SVMs) treinadas
para problemas de
classificação. SVMs são sistemas de aprendizado baseados
na teoria estatística
do aprendizado e apresentam boa habilidade de
generalização em conjuntos de
dados reais. Estes sistemas obtiveram sucesso em vários
tipos de problemas.
Entretanto, as SVMs, da mesma forma que redes neurais
(RN), geram um
modelo caixa preta, isto é, um modelo que não explica o
processo pelo qual
sua saída é obtida. Alguns métodos propostos para reduzir
ou eliminar essa
limitação já foram desenvolvidos para o caso de
classificação binária, embora
sejam restritos à extração de regras simbólicas, isto é,
contêm funções ou
intervalos nos antecedentes das regras. No entanto, a
interpretabilidade de
regras simbólicas ainda é reduzida. Deste modo, propõe-se,
neste trabalho, uma
técnica para a extração de regras fuzzy de SVMs treinadas,
com o objetivo de
aumentar a interpretabilidade do conhecimento gerado. Além
disso, o modelo
proposto foi desenvolvido para classificação em múltiplas
classes, o que ainda
não havia sido abordado até agora. As regras fuzzy obtidas
são do tipo se x1
pertence ao conjunto fuzzy C1, x2 pertence ao conjunto
fuzzy C2,..., xn pertence
ao conjunto fuzzy Cn, então o ponto x = (x1,...,xn) é da
classe A. Para testar o
modelo foram realizados estudos de caso detalhados com
quatro bancos de
dados: Íris, Wine, Bupa Liver Disorders e Winconsin Breast
Cancer. A cobertura
das regras resultantes da aplicação desse modelo nos
testes realizados
mostrou-se muito boa, atingindo 100% no caso da Íris. Após
a geração das
regras, foi feita uma avaliação das mesmas, usando dois
critérios, a abrangência
e a acurácia fuzzy. Além dos testes acima mencionados foi
comparado o
desempenho dos métodos de classificação em múltiplas
classes usados no
trabalho. / [en] This text proposes a new method for fuzzy rule extraction from support
vector machines (SVMs) trained to solve classification problems. SVMs are
learning systems based on statistical learning theory and present good ability of
generalization in real data base sets. These systems have been successfully
applied to a wide variety of application. However SVMs, as well as neural
networks, generates a black box model, i.e., a model which does not explain the
process used in order to obtain its result. Some considered methods to reduce
this limitation already has been proposed for the binary classification case,
although they are restricted to symbolic rules extraction, and they have, in their
antecedents, functions or intervals. However, the interpretability of the symbolic
generated rules is small. Hence, to increase the linguistic interpretability of the
generating rules, we propose a new technique for extracting fuzzy rules of a
trained SVM. Moreover, the proposed model was developed for classification in
multiple classes, which was not introduced till now. Fuzzy rules obtained are
presented in the format if x1 belongs to the fuzzy set C1, x2 belongs to the fuzzy
set C2 , … , xn belongs to the fuzzy set Cn , then the point x=(x1, x2, …xn) belongs
to class A. For testing this new model, we performed detailed researches on four
data bases: Iris, Wine, Bupa Liver Disorders and Wisconsin Breast Cancer. The
rules´ coverage resultant of the application of this method was quite good,
reaching 100% in Iris case. After the rules generation, its evaluation was
performed using two criteria: coverage and accuracy. Besides the testing above,
the performance of the methods for multi-class SVM described in this work was
evaluated.
|
19 |
[en] ENVIRONMENT CHANGES DETECTION: A PROACTIVE SYSTEM TO MONITOR MOVING OBJECTS / [pt] DETECÇÃO DE MUDANÇAS NO AMBIENTE: UM SISTEMA PROATIVO PARA MONITORAR OBJETOS MÓVEISFABIO DA COSTA ALBUQUERQUE 13 February 2017 (has links)
[pt] Sistemas de posicionamento, combinados com tecnologias de comunicação de baixo custo, abrem possibilidades interessantes para implementar aplicações em tempo real que monitoram objetos móveis e que apoiam sistemas de tomada de decisão. Inicialmente, esta dissertação discute requisitos básicos para aplicações proativas de monitoramento em tempo real. Em seguida, propõe uma arquitetura para aplicações proativas que monitoram objetos móveis, explorando a semântica da trajetória e a dinâmica do ambiente. Por fim, fornece um exemplo sobre como uma aplicação que monitora uma frota de caminhões pode se tornar proativa, utilizando notícias sobre condições da malha viária, a partir da publicação de dados em texto não estruturado através da Internet. A dissertação descreve como estruturar e georreferenciar as notícias, utilizando serviços de geocodificação. / [en] Positioning systems, combined with inexpensive communication technologies, open interesting possibilities to implement real-time applications that monitor moving objects and that support decision making. This dissertation first discusses basic requirements for proactive real-time monitoring applications. Then, it proposes an architecture to deploy applications that monitor moving objects, are pro-active, explore trajectory semantics and are sensitive to environment dynamics. Lastly, this dissertation provides an example of how an application that monitors a fleet of trucks can become proactive, using unstructured text information available on Internet focused on road conditions change. The dissertation describes how to structure and geo-reference the text, using available geocoding services.
|
20 |
[en] DATA CLUSTERING: ANALYSIS OF METHODS AND DEVELOPMENT OF APPLICATION FOR CLUSTER ANALYSIS / [pt] AGRUPAMENTOS DE DADOS: AVALIAÇÃO DE MÉTODOS E DESENVOLVIMENTO DE APLICATIVO PARA ANÁLISE DE GRUPOSMARCOS NEVES DO VALE 23 March 2006 (has links)
[pt] A enorme massa de dados que é gerada pelas diversas
empresas diariamente
pode conter informações importantes que não são fáceis de
serem extraídas. Com
isso advém a necessidade de analisá-los automaticamente,
de forma adequada,
extraindo informação útil que pode agregar algum tipo de
conhecimento. Uma das
formas de se analisar os dados automaticamente é através
da análise de
agrupamentos. Ela procura encontrar grupos de dados
semelhantes entre si. As
técnicas de análise de agrupamentos revelam como os dados
estão estruturados e
resultam em um melhor entendimento sobre o negócio. Existe
ainda hoje uma
escassez de ferramentas para esse fim. Em um problema real
de agrupamento de
dados convém analisar os dados através da utilização de
diferentes métodos, a fim
de buscar aquele que melhor se adapte ao problema. Porém,
as ferramentas
existentes hoje em dia não são integradas, onde cada
ferramenta possui um
subconjunto dos métodos existentes de agrupamento. Dessa
forma o usuário fica
limitado à utilização de uma ferramenta específica ou é
obrigado a conhecer
diversas ferramentas diferentes, de forma a melhor
analisar os dados de sua
empresa. Esta dissertação apresenta uma revisão detalhada
de todo o processo de
análise de agrupamentos e o desenvolvimento de um
aplicativo que visa não
apenas a atender as deficiências presentes na maioria das
ferramentas com esse
fim, mas também a auxiliar, de forma mais completa, todo o
processo de análise
dos grupos. O aplicativo desenvolvido é de fácil
utilização e permite que a ele
sejam incorporados outros métodos eventualmente
desenvolvidos pelo usuário. O
aplicativo foi avaliado em três estudos de casos, os quais
visam demonstrar a
facilidade de uso do aplicativo, assim como avaliar as
vantagens do uso de
métodos de natureza fuzzy em uma base de dados real. / [en] The enormous data mass that is daily generated by several
companies can
contain critical information that might not be easily
retrieved, considering that the
amount of data is generally huge and/or the target
information might be spread
through different data bases. Taking that into
consideration, it might be necessary
to properly analyze the data in an automatic way, so
useful and valuable
information can be extracted. One way of automatically
analyzing data is through
cluster analysis. This type of analysis searches for
related similar data. These
clusters settle a data structure model and with proper
analysis can reveal important
information. The techniques used in cluster analysis
disclose how data is
structured and allow a better knowledge of the business.
Still today there is a lack
of tools for this purpose. On a real situation with a data
cluster problem it is wise
to analyze the data through different methods, so we can
find the one that better
fits the problem. However, today the existing tools are
not integrated, and each
tool has a subgroup of existing cluster methods. This way
the user stays limited to
use only one specific tool or is forced to be aware of a
number of different tools,
so he would be able to better analyze the company data.
This study presents a
detailed review of the whole group analysis process and
develops an application
that not only suggests how to cover the currently lack of
tools for this purpose, but
also to help the complete cluster analysis process in a
more extended way. The
application developed is user friendly and allows other
methods developed by
users to be incorporated. The application has been
evaluated into three case
studies with the purpose of demonstrating its user
friendly, as well as evaluating
the advantages of using fuzzy methods on a true data base.
|
Page generated in 0.0594 seconds