21 |
[en] MODELING AND OPTIMIZATION STRATEGIES IN SUGARCANE BAGASSE DELIGNIFICATION PROCESS / [pt] ESTRATÉGIAS DE MODELAGEM E OTIMIZAÇÃO APLICADAS AO PROCESSO DE DESLIGNIZAÇÃO DO BAGAÇO DA CANA-DE-AÇÚCARISABELLE CUNHA VALIM 07 January 2019 (has links)
[pt] O bagaço da cana-de-açúcar é uma biomassa vegetal que possui muito potencial
de uso devido aos seus três elementos estruturais: celulose, hemicelulose
e lignina. Para servir como matéria prima na produção de insumos, o bagaço
da cana-de-açúcar precisa passar por um processo de pré-tratamento. Nesse
estudo, duas metodologias para o processo de pré-tratamento do bagaço da
cana-de-açúcar foram utilizadas: a deslignização via peróxido de hidrogênio
(H2O2) e via dióxido de carbono supercrítico (ScCO2). Para o estudo utilizando
H2O2, foram desenvolvidos modelos a partir de planejamento experimental,
Algoritmos Genéticos (GA, do inglês Genetic Algorithms), Redes
Neurais Artificiais (RNA) e Neuro-Fuzzy (ANFIS). As variáveis independentes
foram temperatura (25 – 60 graus Celsius), concentração de H2O2 (2 – 15 por cento
m/v) e pH (10 – 13), tendo como resposta os teores de lignina residual e
oxidada no processo, através de análises de FT-IR e análise pelo método
de Klason. Para o estudo utilizando ScCO2 foram construídos modelos a
partir de RNA e ANFIS. As variáveis estudadas no processo foram: temperatura
(35 – 100 graus Celsius), pressão (75- 300 bar) e teor de etanol na solução de
co-solvente (0 – 100 graus Celsius). De modo geral, para os dois processos, os modelos
desenvolvidos consideram as variáveis independentes como sendo neurônios
na camada de entrada e as variáveis dependentes como sendo neurônios na
camada de saída. Todos os modelos neurais e ANFIS desenvolvidos neste
trabalho foram avaliados pelo coeficiente de correlação e índices de
erro (SSE, MSE e RMSE), além do número de parâmetros. Os resultados
mostraram que, dentre estas estratégias estudadas, os modelos neurais se
mostraram mais satisfatórios para predição das respostas do pré-tratamento
com H2O2, já que se encaixa nos índices de performance estipulados. O
mesmo ocorreu no modelo neural para predição do teor de lignina residual
no pré-tratamento com ScCO2. Para cada modelo polinomial e neural desenvolvido,
foi realizada a investigação das superfícies de respostas e das
curvas de contorno. Com esse recurso, foi possível a identificação dos melhores
pontos operacionais para os processos, visando a minimização dos
teores de lignina residual e oxidada na biomassa. / [en] Sugarcane bagasse is a plant biomass that has a great potential for use due
to its three structural elements: cellulose, hemicellulose and lignin. To serve
as raw material in the production of other products, sugarcane bagasse needs
to undergo a pre-treatment process. In this study, two methodologies for the
sugarcane bagasse pretreatment process were used: delignification via hydrogen
peroxide (H2O2) and via supercritical carbon dioxide (ScCO2). The
models for study the process with H2O2 were developed from experimental
planning, Genetic Algorithms (GA), Artificial Neural Networks (ANN) and
Neuro-Fuzzy (ANFIS). The independent variables were: temperature (25-
60 degrees Celsius), H2O2 concentration (2 - 15 percent m/v) and pH (10-13). The residual
and oxidized lignin contents in the process were evaluated from FT-IR and
Klason method analysis. The models for study the process with ScCO2 were
developed from RNA and ANFIS. The variables studied in the process were:
temperature (35-100 degrees Celsius), pressure (75-300 bar) and ethanol content in the
aqueous solution of co-solvent (0-100 percent). In general, for the two processes,
the developed models consider the independent variables to be neurons in
the input layer and the dependent variables to be neurons in the output
layer. All the neural and ANFIS models developed in this study were evaluated
by the correlation coefficient and error indexes (SSE, MSE and
RMSE), as well as the number of parameters. From the stipulated indices
of performance, among the results obtained by the different strategies, the
neural models were the most satisfactory for the prediction of pretreatment
responses with H2O2. The same occurred in the neural model for prediction
of the residual lignin content in the pre-treatment with ScCO2. Response
surfaces and the contour curves were investigated for each polynomial and
neural model developed. With this resource, it was possible to identify the
best operational points for the processes, pointing at minimizing the residual
and oxidized lignin contents in the biomass.
|
22 |
[en] THERMODYNAMIC AND KINETIC STUDIES OF THE LEAD AND CADMIUM ADSORPTION IN HUMIC ACID EXTRACTED FROM COAL / [pt] ESTUDO TERMODINÂMICO E CINÉTICO DA ADSORÇÃO DE CHUMBO E CADMIO EM ÁCIDO HÚMICO EXTRAÍDO A PARTIR DE CARVÃO MINERALKAREN MELISSA GARCES PORRAS 30 June 2016 (has links)
[pt] Dentre os contaminantes químicos liberados nos corpos de água, chumbo e
cádmio são extremamente prejudiciais para os seres vivos. As sustâncias húmicas,
devido à sua estrutura molecular complexa, que compreende grupos carboxílicos,
fenólicos e éter, são adsorventes eficazes para poluentes orgânicos e metais. Neste
contexto, o principal objetivo do presente trabalho foi avaliar o potencial do ácido
húmico (AH) como adsorvente para chumbo e cádmio em meio aquoso e determinar
os parâmetros cinéticos e termodinâmicos do processo. AH foi extraído de uma
amostra de carvão, coletada na área de mineração do Estado de Santa Catarina,
previamente oxidada com HNO3 concentrado em condições de refluxo, conforme a
metodologia recomendada pela IHSS. O AH obtido foi caraterizado por técnicas de
análise elementar, FTRI, análise termogravimétrica e MEV. Os resultados da
caracterização foram similares aos relatados na literatura. Foram realizados ensaios
de adsorção para cada cátion, em diferentes níveis de pH da solução, e a partir desta
avaliação previa ficou determinado o valor de pH em 5. Os ensaios de adsorção
com variação da concentração inicial dos cátions foram realizados separadamente
para cada metal em batelada, empregando as seguintes condições: 50 mL de uma
solução de cátion (0 a 100 mg L-1), 50 mg de AH, agitação mecânica (175 rpm) e
temperatura constante (25 graus Celsius). Após 24 horas, os sistemas foram centrifugados e a
concentração de cada metal no sobrenadante foi determinada por espectrometria de
absorção atómica. As isotermas obtidas para Pb e Cd apresentaram uma curva em
forma de L, o que indica que os sítios adsorventes disponíveis no AH tendem à
saturação. Comparativamente a capacidade de adsorção máxima para o Pb foi mais
elevada (77 mg g-1) do que aquela apresentada para o Cd (12 mg g-1). Tal fato indica
uma maior afinidade dos sítios de adsorção do AH para o Pb. Comparativamente,
foram feitos ensaios de adsorção com AH de Leonardita (padrão da IHSS) e carvão
mineral oxidado. Para a determinação dos parâmetros termodinâmicos, foram
realizados ensaios de adsorção em três temperaturas diferentes (15, 25, 35 graus Celsius). O
processo de adsorção foi de natureza endotérmico, com um valor de entalpia de
7,86 kJ mol-1 e um valor de entropia de 23,11 J mol-1 K-1. A cinética de adsorção
segue um modelo cinético de pseudo-segunda ordem com constates de taxa de
0,065 mg g-1 min-1 e 0,025 mg g-1 min-1 para Pb (Co 17,60 mg L-1) e Cd (Co 6,41 mg
L-1), respetivamente. Os resultados obtidos no presente estudo mostram que o AH
de carvão mineral pode eventualmente ser empregado para a remoção de metais
pesados em meio aquoso, porem estudos sobre otimização de seu potencial devem
ser todavia realizados. / [en] Among the released chemical contaminants into water bodies, lead and
cadmium are extremely harmful to living things. The humic substances, due to their
complex molecular structure that comprises both aliphatic and aromatic moieties as
well as carboxylic, phenolic and ether groups are effective adsorbents for organic
pollutants and metals. In this context, the main objective of this study was to
evaluate the potential of humic acid (HA), extracted from previously oxidized coal,
as adsorbent for lead and cadmium in aqueous solutions and determine the kinetic
and thermodynamic parameters of the process. HA was extracted from a coal
sample, collected in the mining area of the State of Santa Catarina, previously
oxidized with HNO3 concentrated in reflux conditions, according to the
methodology recommended by the IHSS. The HA obtained was characterized by
elemental analysis techniques, FTRI, thermogravimetric analysis and SEM. The
characterization results were similar to those reported in the literature. Adsorption
experiments were carried out for each cation in different pH levels, and from this
evaluation it was determined the value of pH at 5. The adsorption experiments with
a variation of the initial concentration of cations were performed separately for each
metal by employing the following conditions: 50 ml of a cation solution (0 to 100
mg L-1), 50 mg of HA, mechanical agitation (175 rpm) and constant temperature
(25 Celsius degrees). After 24 hours, the system was centrifuged and the concentration of each
metal in the supernatant was determined by atomic absorption spectrometry (AA).
The isotherms obtained for Pb and Cd showed a L-shaped curve, indicating that the
available sorptive sites on HA tending to a saturation point. Compared maximum
adsorption capacity for Pb was higher (77mg g-1) than that shown for Cd (12mg g-
1). This fact indicates a higher affinity the adsorption sites of HA for Pb.
Comparatively, adsorption experiments were performed with HA Leonardite
(standard IHSS) and oxidized coal. For the determination of the thermodynamic
parameters, adsorption experiments were performed at three different temperatures (15, 25, 35 Celsius Degrees). The adsorption process is endothermic nature, with a value of
enthalpy of 7.86 kJ mol-1 and a value of entropy 80.54 mol-1 K-1. The adsorption
kinetics follows a kinetic model of the pseudo-second-order with rate constants
0.065 g mg-1 min-1 and 0.025 mg g-1 min-1 for Pb (Co 17.60 mg L-1) and Cd ( Co
6.41 mg L-1), respectively. The results obtained in this study show that the coal HA
can optionally be employed for removing heavy metals from aqueous media, but
studies for their potential should however be realized.
|
23 |
[en] USING RUNTIME INFORMATION AND MAINTENANCE KNOWLEDGE TO ASSIST FAILURE DIAGNOSIS, DETECTION AND RECOVERY / [pt] UTILIZANDO INFORMAÇÕES DA EXECUÇÃO DO SISTEMA E CONHECIMENTOS DE MANUTENÇÃO PARA AUXILIAR O DIAGNÓSTICO, DETECÇÃO E RECUPERAÇÃO DE FALHASTHIAGO PINHEIRO DE ARAUJO 16 January 2017 (has links)
[pt] Mesmo sistemas de software desenvolvidos com um controle de qualidade
rigoroso podem apresentar falhas durante seu ciclo de vida. Quando uma falha é
observada no ambiente de produção, mantenedores são responsáveis por produzir
o diagnóstico e remover o seu defeito correspondente. No entanto, em um serviço
crítico este tempo pode ser muito longo, logo, se for possível, a assinatura da falha
deve ser utilizada para gerar um mecanismo de recuperação automático capaz de
detectar e tratar futuras ocorrências similares, até que o defeito possa ser
removido. Nesta tese, a atividade de recuperação consiste em restaurar o sistema
para um estado correto, que permita continuar a execução com segurança, ainda
que com limitações em suas funcionalidades. Para serem eficazes, as tarefas de
diagnóstico e recuperação requerem informações detalhadas sobre a execução que
falhou. Falhas que ocorrem durante a fase de testes em um ambiente controlado
podem ser depuradas através da inserção de nova instrumentação e re-execução da
rotina que contem o defeito, tornando mais fácil o estudo de comportamentos inesperados. No entanto, falhas que ocorrem no ambiente de produção apresentam
informações limitadas à situação específica em que ocorrem, além de serem
imprevisíveis. Para mitigar essa adversidade, informações devem ser coletadas
sistematicamente com o intuito de detectar, diagnosticar para recuperar e,
eventualmente, diagnosticar para remover a circunstância geradora da falha. Além
disso, há um balanceamento entre a informação inserida como instrumentação e a
performance do sistema: técnicas de logging geralmente apresentam baixo
impacto no desempenho, porém não provêm informação suficiente sobre a
execução; por outro lado, as técnicas de tracing podem registrar informações
precisas e detalhadas, todavia são impraticáveis para um ambiente de produção.
Esta tese propõe uma abordagem hibrida para gravação e extração de informações durante a execução do sistema. A solução proposta se baseia no registro de
eventos, onde estes são enriquecidos com propriedades contextuais sobre o estado
atual da execução no momento em que o evento é gravado. Através deste registro
de eventos com informações de contexto, uma técnica de diagnóstico e uma
ferramenta foram desenvolvidas para permitir que eventos pudessem ser filtrados
com base na perspectiva de interesse do mantenedor. Além disso, também foi
desenvolvida uma abordagem que utiliza estes eventos enriquecidos para detectar
falhas automaticamente visando recuperação. As soluções propostas foram
avaliadas através de medições e estudos conduzidos em sistemas implantados,
baseando-se nas falhas que de fato ocorreram enquanto se utilizava o software em
um contexto de produção. / [en] Even software systems developed with strict quality control may expect failures during their lifetime. When a failure is observed in a production environment the maintainer is responsible for diagnosing the cause and eventually removing it. However, considering a critical service this might demand too long a time to complete, hence, if possible, the failure signature should be identified in order to generate a recovery mechanism to automatically detect and handle future occurrences until a proper correction can be made. In this thesis, recovery consists of restoring a correct context allowing dependable execution, even if the causing fault is still unknown. To be effective, the tasks of diagnosing and recovery implementation require detailed information about the failed execution. Failures that occur during the test phase run in a controlled environment, allow adding specific code instrumentation and usually can be replicated, making it easier to study the unexpected behavior. However, failures that occur in the production environment are limited to the information present in the first occurrence of the failure. But run time failures are obviously unexpected, hence run time data must be gathered systematically to allow detecting, diagnosing with the purpose of recovering, and eventually diagnosing with the purpose of removing the causing fault. Thus there is a balance between the detail of information inserted as instrumentation and the system performance: standard logging techniques usually present low impact on performance, but carry insufficient information about the execution; while tracing techniques can record precise and detailed information, however are impracticable for a production environment. This thesis proposes a novel hybrid approach for recording and extracting system s runtime information. The solution is based on event logs, where events are enriched with contextual properties about the current state of the execution at the moment the event is recorded. Using these enriched log events a diagnosis technique and a tool have been developed to allow event filtering based on the maintainer s perspective of interest. Furthermore, an approach using these enriched events has been developed that allows detecting and diagnosing failures aiming at recovery. The proposed solutions were evaluated through measurements and studies conducted using deployed systems, based on failures that actually occurred while using the software in a production context.
|
24 |
[en] DEEP ARCHITECTURE FOR QUOTATION EXTRACTION / [pt] ARQUITETURA PROFUNDA PARA EXTRAÇÃO DE CITAÇÕESLUIS FELIPE MULLER DE OLIVEIRA HENRIQUES 28 July 2017 (has links)
[pt] A Extração e Atribuição de Citações é a tarefa de identificar citações de um texto e associá-las a seus autores. Neste trabalho, apresentamos um sistema de Extração e Atribuição de Citações para a língua portuguesa. A tarefa de Extração e Atribuição de Citações foi abordada anteriormente utilizando diversas técnicas e para uma variedade de linguagens e datasets. Os modelos tradicionais para a tarefa consistem em extrair manualmente um rico conjunto de atributos e usá-los para alimentar um classificador
raso. Neste trabalho, ao contrário da abordagem tradicional, evitamos usar atributos projetados à mão, usando técnicas de aprendizagem não supervisionadas e redes neurais profundas para automaticamente aprender atributos relevantes para resolver a tarefa. Ao evitar a criação manual de atributos, nosso modelo de aprendizagem de máquina tornou-se facilmente adaptável a outros domínios e linguagens. Nosso modelo foi treinado e avaliado no corpus GloboQuotes e sua métrica de desempenho F1 é igual a 89.43 por cento. / [en] Quotation Extraction and Attribution is the task of identifying quotations from a given text and associating them to their authors. In this work, we present a Quotation Extraction and Attribution system for the Portuguese language. The Quotation Extraction and Attribution task has been previously approached using various techniques and for a variety of languages and datasets. Traditional models to this task consist of extracting a rich set of hand-designed features and using them to feed a shallow classifier. In this work, unlike the traditional approach, we avoid using hand-designed features using unsupervised learning techniques and deep neural networks to automatically learn relevant features to solve the task. By avoiding design features by hand, our machine learning model became easily adaptable to other languages and domains. Our model is trained and evaluated at the GloboQuotes corpus, and its F1 performance metric is equal to 89.43 percent.
|
25 |
[en] APPRECIATION OF THE POTENCIAL OF HUMIC ACID EXTRACTION FROM DIFFERENT CARBON BEARING MATERIALS / [pt] AVALIAÇÃO SOBRE O POTENCIAL DE EXTRAÇÃO DE ÁCIDOS HÚMICOS A PARTIR DE DIFERENTES PRECURSORES CARBONÁCEOS03 November 2021 (has links)
[pt] O Ácido Húmico (AH) é uma fração orgânica obtida em solos, corpos hídricos bem como em matrizes carbonáceas. Nos últimos anos o interesse associado a esta substância vem crescendo progressivamente à medida que novas aplicações são descobertas, tais como: fertilizantes, recuperação de áreas degradadas e tratamento de efluentes contaminados com metais. As principais características dos AH são dependentes do método de extração e da matriz escolhida, posto que se pode extraí-lo de uma ampla gama de matérias primas, assim como por meio de diferentes métodos. Dentro deste contexto, o objetivo principal do presente trabalho pretende avaliar o potencial de extração de ácido húmico a partir de diferentes precursores carbonáceos. Foram utilizadas três matrizes carbonáceas distintas: rejeito de carvão mineral (RCM), coque mineral (CM) e coque verde de petróleo (CVP). Além deste estudo experimental foram apresentados alguns resultados de estudo semelhante disponível na literatura. O método de extração utilizado foi adaptado de Trompowski et al (2005), e a caracterização foi feita utilizando-se técnicas de ICP-OES, CNHS, MEV/EDS, FTIR e Difração de Raio-X. A eficiência da extração, em termos de recuperação em massa, variou, significativamente, em função do método adotado, sendo os melhores resultados associados ao rejeito de carvão mineral (17,0 porcento), ao passo que a menor eficiência está relacionada ao coque verde de petróleo, após destilação (0,2 porcento). A extração a partir do coque verde de petróleo, como recebido, é inviável em função da sua imiscibilidade com a solução de ácido nítrico. Os resultados obtidos a partir do FTIR foram satisfatórios para todos os AH analisados, apresentando bandas características de AH e compatíveis com o indicado na literatura. Os resultados da análise de ICP-OES apresentaram baixa presença de metais e elementos traços para o AH oriundo do coque mineral. No que diz respeito ao ácido húmico extraído do rejeito de carvão mineral, que apresentou a maior concentração inicial de metais, principalmente ferro, foi implementado, com sucesso, uma purificação utilizando ácido nítrico. Com base nos resultados obtidos é possível afirmar que a utilização de diferente precursores carbonosos permitiu a extração de AH com características semelhantes aqueles citados na literatura e extraídos de outras fontes. / [en] The humic acid (HA) is an organic fraction that can be found in soil and watercourses as well as in carbonaceous matrices. In recent years the interest associated with this substance has been growing steadily as new applications are discovered, such as fertilizers, remediation of degraded areas and treatment of wastewater contaminated with metals. The main features of HA are dependent on the method of extraction and the chosen matrix, since it can be extract from a wide range of raw materials, as well as by different methods. Within this context, the main objective of this work is related to an assessment of the potential of extracting humic acid from different carbonaceous precursors. three different carbonaceous matrices were used: coal tailings (RCM), coke (CM) and green petroleum coke (CVP). Besides this experimental study some results of a similar study available in the literature were presented. The extraction method used was adapted from Trompowski et al, and the characterization was done using ICP- OES techniques, CNHS, MEV / EDS and FTIR. The extraction efficiency, in terms of mass recovery, significantly varied depending on the method used, the best results being associated with coal tailings (17.0 percent), while lower efficiency relates to the calcinated petrocoke after distillation (0.2 percent). The extraction from green petroleum coke, as received, is unfeasible due to its immiscibility with the nitric acid solution. The results obtained from FTIR were satisfactory for all the HA analyzed, displaying bands consistent with those from HA and compatible with bands shown in the literature. The results of the analysis of ICP-OES showed a low presence of metals and trace elements coming from the HA for coke. With respect to the extracted humic acid from coal tailings, which showed the highest initial concentration of metals, particularly iron, was successfully implemented, a purification with nitric acid. Based on the results obtained it can be stated that the use of different carbonaceous precursors allowed the extraction of humic acid with similar characteristics as cited in the literature and those obtained from other sources.
|
26 |
[en] NEURO-FUZZY BSP HIERARCHICAL SYSTEM FOR TIME FORECASTING AND FUZZY RULE EXTRACTION DOR DATA MINING APPLICATONS / [pt] SISTEMA NEURO-FUZZY HIERÁRQUICO BSP PARA PREVISÃO E EXTRAÇÃO DE REGRAS FUZZY EM APLICAÇÕES DE DATA MININGALBERTO IRIARTE LANAS 11 October 2005 (has links)
[pt] Esta dissertação investiga a utilização de um sistema
Neuro-Fuzzy Hierárquico para previsão de séries e a
extração de regras fuzzy em aplicações de Mineração de
Dados. O objetivo do trabalho foi estender o modelo Neuro-
Fuzzy Hierárquico BSP para a classificação de registros e
a previsão de séries temporais. O processo de
classificação de registros no contexto de Mineração de
Dados consiste na extração de regras de associação que
melhor caracterizem, através de sua acurácia e
abrangência, um determinado grupo de registros de um banco
de dados (BD). A previsão de séries temporais, outra
tarefa comum em Mineração de Dados tem como objetivo
prever o comportamento de uma série temporal no instante
t+k (k ? 1).O trabalho consistiu de 5 etapas principais:
elaborar um survey dos principais sistemas e modelos
mais utilizados nas aplicações de Mineração de Dados;
avaliar o desempenho do sistema NFHB original em
aplicações de Mineração de Dados; desenvolver uma extensão
do modelo NFHB dedicado à classificação de registros em
uma BD; desenvolver um novo modelo híbrido Neuro-Fuzzy
Genético para o ajuste automático dos parâmetros do
sistema dedicado a previsão de séries temporais; e o
estudo dos casos. O estudo da área resultou num survey
sobre os principais modelos para Mineração de Dados. São
apresentados os modelos mais utilizados em tarefas de
classificação e extração de regras tais como: redes
neurais, árvores de decisão crisp e fuzzy, algoritmos
genéticos, estatística e sistemas neuro-fuzzy. Na etapa de
avaliação do modelo NFHB original, foi verificado que além
do tradicional aprendizado dos parâmetros, comuns às redes
neurais e aos sistemas neuro-fuzzy, o modelo possui as
seguintes aracterísticas: aprendizado da estrutura, a
partir do uso de particionamentos recursivos; número maior
de entradas que o habitualmente encontrado nos sistemas
neuro-fuzzy; e regras com hierarquia, características
adequadas para as aplicações de Mineração de Dados.
Entretanto, o processo de extração de regras e a seleção
de atributos não são adequados para este tipo de
aplicação, assim como a excessiva complexidade da
parametrização do modelo para aplicações de previsão de
séries temporais. Uma extensão ao modelo NFHB original foi
então proposta para aplicações de classificação de
registros no contexto da Mineração de Dados onde se têm
como objetivo principal a extração de informação em forma
de regras interpretáveis. Foi necessário modificar a
seleção de atributos e o processo original de extração de
regras. O sistema fuzzy do tipo Takagi-Sugeno do modelo
NFHB original fornece regras inadequadas do ponto de vista
da Mineração de Dados. O novo modelo NFHB, dotado das
modificações necessárias, mostrou um ótimo desempenho na
extração de regras fuzzy válidas que descrevem a
informação contida no banco de dados. As medidas de
avaliação normalmente usadas para analisar regras crisp
(Se x1 é <14.3 e...), como abrangência e acurácia, foram
modificadas para poderem ser aplicadas ao caso de
avaliação das regras fuzzy (Se x1 é Baixo e..) extraídas
pelo sistema NFHB após da fase de aprendizado. A
quantidade e a qualidade das regras extraídas é um ponto
fundamental dos sistemas voltados para aplicações de
Mineração de Dados, que buscam sempre obter o menor número
de regras e da maior qualidade possível. Nesse sentido, o
processo de seleção das características de entrada foi
alterado para evitar particionamentos excessivos, ou seja
regras desnecessárias. Foram implementadas duas
estratégias de seleção (Fixa e Adaptativa) em função de
diferentes medidas de avaliação como a Entropia e o método
de Jang. Um novo modelo híbrido neuro-fuzzy genético para
previsão de séries temporais foi criado para resolver o
problema da excessiva complexidade de parametrização do
sistema, o qual conta com mais de 15 parâmetros.Foi
proposto um novo modelo híbrido neuro-fuzzy genético capaz
de evoluir e obter um conjunto de parâmetros adequado par / [en] This dissertation investigates the use of a Neuro-Fuzzy
Hierarchical system for time series forecasting and fuzzy
rule extraction for Data Mining applications. The
objective of this work was to extend the Neuro-Fuzzy BSP
Hierarchical model for the classification of registers and
time series forecasting. The process of classification of
registers in the Data Mining context consists of
extracting association rules that best characterise,
through its accuracy and coverage measures, a certain
group of registers of database (DB). The time series
forecasting other common task in Data Mining, has a main
objective to foresee the behavior of a time series in the
instant t+k (k>=1).
The work consisted of 5 main stages: to elaborate a survey
of the main systems and the most common models in Data
Mining applications; to evaluate the performance of the
original NFHB system in Data Mining applicatons; to
develop an extension of the NFHB model dedicated to the
classification of registers in a DB; to develop a new
Neuro-Fuzzy Genetic hybrid model for the automatic
adjustment of the parameters of the system for time series
forecasting applicatons; and the case estudies.
The study of the area resulted in a survey of the main
Data Mining models. The most common methods used in Data
Mining application are presented such as: neural nets,
crisp and fuzzy decision trees, genetic algorithms,
statistics and neuro-fuzzy systems.
In the stage of evaluation of the original NFHB model, it
verified that besides the traditional learning of the
parameters, common to the neural nets and the neuro-fuzzy
systems, the model possesses the following
characteristics: learning of the structure; recursive
partitioning; larger number of inputs than usually found
on the neuro-fuzzy systems; rule with hierarchy; which are
characteristics adapted for Data Mining applications.
However the rule extraction process and attributes
selection are not appropriate for this type of
applications, as well as the excessive complexity of the
tuning of the model for time series forecasting
applicatons.
An extension of the original NFHB model was then proposed
for applicatons of classification of registers in the Data
Mining context, where the main objective in the extraction
of information in form of interpratable rules. It was
necessary to modify the attributes selection and the
original rule extraction process. The Takagi-Sugeno fuzzy
system of the original NFHB model supplies inadequate
rules, from the Data Mining point of view. The new NFHB
models, endowed with necessary modifications, showed good
performance in extracting valid fuzzy rules that describe
the information contained in the database. The evaluation
metrics, usually used to analyse crips rules (If x1 is
<14.3 and), as coverage and accuracy, were modified to be
applied to the evaluation of the fuzzy rules (If x1 is Low
and) extracted from the NFHB system after the learning
process. The amount and quality of the extracted rules are
important points of the systems dedicated for Data Mining
applicatons, where the target is to obtain the smallest
number of rules and of the best quality. In that sense,
the input selection strategies were implemented (Static
and Adaptive), using different evaluation measures as
Entropy and the jang algorithm.
A new genetic neuro-fuzzy hybrid model for time series
forecasting was created to solve the problem of the
excessive complexity of the model tuning, which comprises
more than 15 parameters. A new model wes proposed, a
genetic neuro-fuzzy hybrid, model capable to develop and
to obtain an appropriate set of parameters for the
forecasting of time series. The new hybrid, model capable
to develop and to obtain an appropriate set of parameters
for the forecasting of time series. The new hybrid model
presented good results with different types of series.
A tool based on the NFHB model was developed for
classification and forecasting applications. Th
|
27 |
[en] LER: ANNOTATION AND AUTOMATIC CLASSIFICATION OF ENTITIES AND RELATIONS / [pt] LER: ANOTAÇÃO E CLASSIFICAÇÃO AUTOMÁTICA DE ENTIDADES E RELAÇÕESJONATAS DOS SANTOS GROSMAN 30 November 2017 (has links)
[pt] Diversas técnicas para extração de informações estruturadas de dados em linguagem natural foram desenvolvidas e demonstraram resultados muito satisfatórios. Entretanto, para obterem tais resultados, requerem uma série de atividades que geralmente são feitas de modo isolado, como a anotação de textos para geração de corpora, etiquetamento morfossintático, engenharia e extração de atributos, treinamento de modelos de aprendizado de máquina etc., o que torna onerosa a extração dessas informações, dado o esforço e tempo a serem investidos. O presente trabalho propõe e desenvolve uma plataforma em ambiente web, chamada LER (Learning Entities and Relations) que integra o fluxo necessário para essas atividades, com uma interface que visa a facilidade de uso. Outrossim, o trabalho mostra os resultados da implementação e uso da plataforma proposta. / [en] Many techniques for the structured information extraction from natural language data have been developed and have demonstrated their potentials yielding satisfactory results. Nevertheless, to obtain such results, they require some activities that are usually done separately, such as text annotation to generate corpora, Part-Of- Speech tagging, features engineering and extraction, machine learning models training etc., making the information extraction task a costly activity due to the effort and time spent on this. The present work proposes and develops a web based platform called LER (Learning Entities and Relations), that integrates the needed workflow for these activities, with an interface that aims the ease of use. The work also shows the platform implementation and its use.
|
28 |
[pt] IDENTIFICANDO CANDIDATOS A MICROSSERVIÇOS EM CÓDIGO LEGADO / [en] IDENTIFYING MICROSERVICES CANDIDATES IN LEGACY CODE10 December 2020 (has links)
[pt] Microsserviços é uma técnica industrial para promover melhor escalabilidade e manutenibilidade de pequenos e autônomos serviços. Estudos prévios sugerem que a arquitetura de microsserviços vem sendo amplamente usada para reduzir limitações encontradas em sistemas monolíticos legados tais como melhoria de inovação, uso de diferentes tecnologias, entre outras. O processo de migração para a arquitetura de microsserviços não é trivial. Este é particularmente o caso da tarefa de identificar candidatos a microsserviço e o código fonte associado com cada candidato que é dispendiosa e propensa a erro. Consequentemente, abordagens automatizadas têm sido propostas para reduzir o esforço relacionado a essa atividade. Essas abordagens comumente adotam um ou dois critérios para suportar a identificação
de microsserviços com base no sistema monolítico legado. Contudo, existe uma falta de compreensão da utilidade desses critérios adotados na prática. Além disso, há limitado conhecimento em quais são os critérios que profissionais consideram relevantes. Levando em consideração esses limitantes
existentes, nós conduzimos um survey e entrevista para melhor compreender a utilidade de critérios relatados em estudos empíricos (e.g, estudos de caso e relatos) do ponto de vista dos profissionais. Os resultados do survey e da entrevista mostram que as abordagens automatizadas e ferramentas existentes
não são totalmente alinhadas com necessidades práticas. Para atender às necessidades deles, este trabalho define uma abordagem automatizada chamada toMicroservices. A abordagem baseia-se em uma combinação de análise estática e dinâmica do código legado. A abordagem visa indicar os candidatos a microsserviço e a fonte correspondente extraído do sistema legado. toMicroservices faz uso da engenharia de software baseada em busca para otimizar e balancear os cinco critérios comumente adotados por
profisionais, nomeados de modularização de funcionalidade, redução de sobrecarga de rede, reúso, acoplamento e coesão. Além disso, um estudo de caso e grupo focal foram conduzidos a posteriori para avaliar e melhorar toMicroservices. / [en] Microservices is an industrial technique to promote better scalability and maintainability of small and autonomous services. Previous studies suggested that microservice architectures have been widely used to reduce limitations found in legacy monolithic systems such as the inclusion of innovation, use of a different stack of technologies, among others. The process of migrating to a microservices architecture is far from trivial. This is particularly the case for the task of identifying candidate microservices and the source code associated with each candidate, which is recognizably time-consuming and error-prone. Thus, automated approaches have been proposed to reduce the effort related to that task. These approaches commonly
adopt one or two criteria to support the identification of microservices from a legacy monolithic system. However, there is a lack of understanding on the usefulness of these criteria in practical settings. Moreover, there is limited knowledge on what are the criteria that practitioners consider relevant. Taking into account these existing limitations, we conducted a survey and interviews to better understand the usefulness of criteria reported in empirical studies (e.g, case studies and reports) from the point of view of practitioners. The results of the survey and interviews revealed that existing automated approaches and tools are far from being aligned with practical needs. To fulfill these needs, this work defines a automated approach named toMicroservices. The approach relies on a combination of static and dynamic analysis of the legacy code. The approach aims at indicating the microservice candidates and the corresponding source extracted from the legacy system. toMicroservices makes use of search-based software engineering (SBSE) to optimize and balance the five criteria commonly adopted by practitioners, namely feature modularization, network overhead reduction, reuse, coupling and cohesion. Additionally, an industrial case study
and a focus group were conducted a posteriori to support the evaluation and improvements of toMicroservices.
|
29 |
[en] SYNTHESIS AND CHARACTERIZATION OF HYBRID SILICABASED NANOSTRUCTURES WITH IMMOBILIZED CARBOGENIC MATERIALS HAVING ENRICHED PI-ELECTRON SYSTEM AND THEIR ANALYTICAL APPLICATIONS / [pt] SÍNTESE E CARACTERIZAÇÃO DE NANOESTRUTURAS HÍBRIDAS BASEADAS EM SÍLICA COM MATERIAIS CARBOGÊNICOS IMOBILIZADOS TENDO SISTEMAS RICOS EM ELÉTRONS PI E SUAS APLICAÇÕES NA QUIMICA ANALÍTICAALBINA MIKHRALIIEVA 28 December 2020 (has links)
[pt] O objetivo da pesquisa foi dedicado à preparação de novos materiais híbridos à base de sílica contendo sistemas moleculares ou nanométricos de carbono com sistema de elétrons pi conjugados, imobilizados covalentemente para posterior aplicações como adsorventes e eletrodos para pré-concentração e determinação de compostos aromáticos. Deste modo, propôs-se o desenvolvimento das metodologias para as imobilizações covalentes de antraceno (Ant), pontos quânticos de óxido de grafeno (GOQDs) e nanopontos de carbono (CDs) na superfície da sílica (SiO2). Estes compostos são constituídos de sistemas conjugados de elétrons pi e, portanto, podem formar interação intramolecular de empilhamento pi–pi com compostos aromáticos. Nanocompósito de GOQDs imobilizados foi preparado através da interação covalente de fragmentos nanoméricos de óxido de grafeno (GO). Três tipos de SiO2-Ant foram obtidos através de abordagem de montagem da superfície pela reação de alquilação condensação de sílica modificada com grupos aminopropila. Estes materiais podem ter diferentes arranjos de ligantes de antraceno na superfície da sílica e, portanto, podem apresentar diferentes propriedades doadoras de elétrons-pi. Nanocompósitos de sílica gel com CDs imobilizados foram preparados por duas abordagens diferentes. Na primeira, os CDs foram obtidos a partir do ácido cítrico como material de partida e
posteriormente imobilizados em sílica. O segundo método consistiu no uso de sílica gel porosa como nanorreator para a preparação de CDs. Este método é simples e robusto, o qual permite um maior controle do tamanho e da composição do nanomaterial. Além disso, os efeitos da modificação da sílica, tamanho dos poros, tempo de síntese, estabilidade hidrolítica, tamanho das nanopartículas de carbono e rendimento quântico da fluorescência foram avaliados. Foi demonstrado que a carbonização do gel aminosilica com ácido cítrico incorporado resultou na formação de CDs não imobilizados e CDs imobilizados. Devido à forte fixação na superfície, os CDs podem ser facilmente purificados através de simples lavagem do nanocompósito com água. Os C-pontos preparados apresentaram fotoluminescência independente de
excitação a 445 nm com rendimento quântico até 80 porcento, o que os tornam atraentes para
aplicação bioanalítica. O nanocompósito imobilizado com GOQDs foi preparado por ligações covalentes dos fragmentos de GO em nanoescala. A composição da camada superficial de todos adsorventes foi determinada a partir de análises elementares e termogravimétricas, fotoelétrons de raios X, ressonância magnética nuclear no estado sólido, Raman, FTIR e espectroscopia de fluorescência. As propriedades texturais dos adsorventes foram determinadas, bem como a cinética de imobilização do ligante, o
grau de transformação da superfície e a estabilidade hidrolítica dos grupos enxertados, o efeito da porosidade da sílica no grau de conversão do ligante. As propriedades de adsorção dos materiais foram avaliados pela extração em fáse sólida nos modos dinâmico e estático para os compostos modelos azul de metileno e antraceno em várias fases móveis aquosas-orgânicas e orgânicas, na presença de componentes interferentes. Os nanomateriais obtidos apresentaram maior afinidade para compostos aromáticos do
que os cartuchos comerciais C18 para extração em fase sólida (SPE) de fases orgânicas móveis que permitem a separação em uma etapa dos hidrocarbonetos aromáticos policíclicos (PAHs) na matriz com alta concentração de ácidos graxos. Ademais, sílica gel com GOQDs imobilizados foi usado para análise eletroquímica de antibióticos e hormônios selecionados. O eletrodo demonstrou atividade eletrocatalítica em relação ao estriol (ET), dietilestilbestrol (DES), sulfametoxazol (SMZ) e trimetoprim (TMP) que possibilitaram determinar esses analitos com até 0.009 μmol L(-1) (ET). / [en] The objective of the present research was devoted to the preparation of new silica-based hybrid materials having covalently immobilized carbon-containing molecular and nanometric systems with delocalized pi-electrons that can be used as adsorbents and electrodes for preconcentration and determination of aromatic compounds. For this purpose, methodologies for covalent immobilization of anthracene (Ant), graphene oxide quantum dotes (GOQDs) and carbon nanodots (CDs) on silica surface (SiO2) have been developed. These compounds have a conjugated system of pi-electrons and thus can form intramolecular pi–pi stacking interaction with aromatic compounds. The nanocomposite with immobilized GOQDs was prepared by covalent immobilization of nanoscale graphene oxide (GO) fragments. Three sets of
SiO2-Ant were obtained using reaction surface assembling reactions by alkylation and condensation of silica with immobilized primary amines. These materials can have different arrangements of anthracene ligands on silica surface and so pi-donor properties. Silica gel nanocomposites with immobilized CDs were prepared by two different approaches. For the first one, the CDs were obtained from the molecular precursor and then immobilized on silica. For the second method, CDs were prepared by nanoreactor approach directly in silica gel pores. The second method is facile and robust and also allows better control of the particle size and composition. The effects of silica gel modification, pore size, synthesis time, hydrolytic stability, carbon
nanoparticle size and quantum yield of the fluorescence were studied. It was demonstrated that the carbonization of aminosilica gel with embedded citric acid resulted in the formation of unbound CDs and immobilized CDs. Due to firm attachment to the surface CDs can be easily separated from low-molecular-weight impurities and CDs by simple rinsing of the nanocomposite with water. As prepared CDs demonstrate excitation-independent photoluminescence at 445 nm with quantum yield up to 80 percent that makes them attractive for bioanalytical application. The composition of the surface layer of the adsorbents was determined from elemental and thermogravimetric analysis, X-ray photoelectron, solid nuclear magnetic resonance, Raman, FTIR, and fluorescent spectroscopy. The textural properties of the adsorbents were determined as well as ligand immobilization kinetics, the degree of surface
transformation and hydrolytic stability of the grafted groups, the effect of silica porosity on ligand conversion degree. The adsorption properties of the materials were studied in dynamic and static solid-phase extraction (SPE) modes for the model compounds methylene blue and anthracene in various aqueous-organic and organic mobile phases, in the presence of interfering components. It was demonstrated that studied materials have a higher affinity towards aromatic compounds than commercial
C18 SPE cartridges in organic mobile phases that allow one-step separation of polycyclic aromatic hydrocarbons in the matrix with a high concentration of fatty acids. Also, silica-immobilized GOQDs was used for electrochemical analysis of selected antibiotics and hormones. The electrode demonstrated electrocatalytic activity towards estriol (ET), diethylstilbestrol (DES), sulfamethoxazole (SMZ), and trimethoprim (TMP) that made it possible to determine these analytes with up to 9 nmol L(-1) (ET).
|
30 |
[pt] EXTRAÇÃO DE ISOSUPERFÍCIES DE DOMOS DE SAL EM VOLUMES BINÁRIOS MASSIVOS / [en] ISOSURFACE EXTRACTION OF MASSIVE SALT DOME BINARY VOLUME DATASAMUEL BASTOS DE SOUZA JUNIOR 19 January 2021 (has links)
[pt] Ao extrair isosuperfícies de dados volumétricos massivos, em geral a superfície
de saída é densa, podendo demandar muita memória para seu processamento.
Além disso, dependendo do método de extração utilizado, podese
também obter um resultado contendo diversos problemas geométricos e
topológicos. Neste estudo, experimentamos combinações de diferentes métodos
de extração de isosuperfícies juntamente com estratégias out-of-core que permitem
uso inteligente do recurso computacional para sintetizar aproximações
poligonais dessas superfícies, preservando a topologia original segmentada. O
método implementado foi testado em um volume sísmico real para extração
da superfície de domo de sal. / [en] When extracting isosurfaces from massive volumetric datasets, in general,
the output surface is dense, and may require a lot of memory for processing.
In addition to this, depending on the extraction method used, the result can
also include several geometric and topological problems. In this study, we
experimented combinations of different isosurface extraction methods along
out-of-core strategies to generate polygonal approximations to these surfaces,
preserving the original topology segmented in the volumetric dataset. The
implemented method was tested in a real seismic volume dataset for the salt
dome extraction.
|
Page generated in 0.0463 seconds