11 |
[en] A SYSTEM FOR GENERATION, INTERACTION AND 3D VISUALIZATION OF STORIES FOR INTERACTIVE TV / [pt] UM SISTEMA PARA GERAÇÃO, INTERAÇÃO E VISUALIZAÇÃO 3D DE HISTÓRIAS PARA TV INTERATIVACESAR TADEU POZZER 17 June 2005 (has links)
[pt] Esta tese visa o desenvolvimento de um ambiente
integrado
para o controle
da geração e representação de histórias interativas
dinâmicas. A geração
é realizada por um processo de simulação, resultando em
um
conjunto
de operações parcialmente ordenado que define o enredo
da
história. Esta
história deve então ser representada graficamente por
meio
de um motor
gráfico. Estão sendo utilizadas técnicas
cinematográficas
para capturar a
essência das cenas, compostas por um ambiente virtual
3D,
que possuem
personagens e objetos. Para o desenrolar da história, os
personagens,
implementados como agentes reativos, interagem entre si
em
um ambiente
multiagente e com a cena. Cada agente encapsula recursos
que os permitem
fazer a representação gráfica dos eventos típicos das
histórias. A arquitetura
como um todo é projetada para servir como meio de
geração
de conteúdo
para a TV interativa. / [en] This thesis aims at the development of an integrated tool
for managing
both the generation and representation of dynamic
interactive stories
(storytelling). The story generation is accomplished by a
simulation process
resulting in a set of partially ordered operations that
define the plot of the
story. This story should then be graphically represented
by means of a 3D
engine. It has been used cinematographic techniques to
capture the essence
of the scenes, which are composed by a virtual 3D
environment, including
characters and objects. Characters, implemented as
reactive agents, interact
among each other in a multi-agent system and with the
scene to accomplish
the plot of the narrative. Each agent encapsulates
resources that allow them
to graphically represent typical events of stories. The
overall architecture is
designed as a source for Interactive TV content.
|
12 |
[pt] DESENVOLVIMENTO DE MODELOS PREDITIVOS PARA A GASEIFICAÇÃO DE BIOMASSA USANDO REDES NEURAIS ARTIFICIAIS / [en] DEVELOPMENT OF PREDICTIVE MODELS FOR BIOMASS GASIFICATION USING ARTIFICIAL NEURAL NETWORKSFERNANDA DA SILVA PIMENTEL 02 May 2023 (has links)
[pt] Na tentativa de reduzir os efeitos das emissões de dióxido de carbono, há uma
necessidade por maior utilização de fontes de energia renováveis, tal como energia
proveniente de biomassa. Para geração de energia a partir da biomassa, destaca-se
o processo de gaseificação, por meio do qual é possível gerar um combustível
nobre. Objetivou-se simular no software Matlab (marca registrada) a gaseificação da biomassa
usando técnicas de inteligência artificial que são as Redes Neurais Artificiais
(RNA). Particularmente, objetivou-se desenvolver modelos abrangentes de RNA
com dez variáveis de entrada (carbono, hidrogênio, oxigênio, nitrogênio, material
volátil, teor de umidade, cinzas, razão de equivalência, temperatura e razão
vapor/biomassa), aplicáveis a uma diversidade de biomassa, com diversos tipos e
concentrações de agentes de gaseificação em diferentes tipos de gaseificadores,
capazes de predizer a composição do gás de síntese (CO2, CO, CH4 e H2). Para
treinamento, teste e validação dos modelos, foram preparados bancos de dados
robustos, a partir de informações coletadas em estudos anteriores disponíveis na
literatura e do tratamento dos dados obtidos dos artigos. Foram avaliadas 33
topologias das redes neurais para eleger a melhor delas de acordo com quatro
critérios referente a robustez do treinamento e do teste. A rede considerada como
tendo a melhor topologia possui 10 neurônios na camada de entrada; 2 camadas
intermediárias, com funções de ativação logsig e 10 neurônios em cada camada
intermediária; função de ativação purelin na camada final; 4 neurônios na camada
final; e algoritmo de treinamento trainbr. Tal rede possui um bom desempenho,
com valores de R2
de treinamento e de teste maiores que 0,88 e 0,70,
respectivamente, para cada uma das quatro saídas. Para avaliação do modelo, uma
validação foi executada, cujo desempenho não foi muito adequado, mas foi possível
identificar com uma métrica quantitativa simples as regiões mais confiáveis onde
há uma maior densidade de dados no treinamento. / [en] In an attempt to reduce the effects of carbon dioxide emissions, there is a need
for greater use of renewable energy sources, such as energy from biomass. In order
to generate energy from biomass, the gasification process, by means of which it is
possible to generate a noble fuel, can be highlighted. This work aimed to simulate
the biomass gasification using artificial intelligence techniques, namely Artificial
Neural Networks (ANN), using Matlab (trademark) software. Particularly, the objective was
the development of ANN models with ten inputs (carbon, hydrogen, oxygen,
nitrogen, volatile matter, moisture content, ash, equivalence ratio, temperature and
steam/biomass ratio), applicable to a broad variety of biomass, with different types
and concentrations of gasification agents in different types of gasifiers, capable of
predicting the syngas composition (CO2, CO, CH4 and H2). Robust databases were
built for training, testing and validation of the models, based on information
collected in previous studies available in the literature and on the treatment of data
obtained from the papers. Thirty-three neural network topologies were evaluated in
order to choose the best one according to four criteria regarding training and test
robustness. The network considered to have the best topology has 10 neurons in the
input layer; 2 hidden layers, with logsig activation functions and 10 neurons in each
hidden layer; the activation function is purelin in the output layer; 4 neurons in the
output layer; and the training algorithm is trainbr. Such network has a good
performance, with R2 values greater than 0.88 and 0.70 for training and test,
respectively, for each of the four outputs. To evaluate the model, a validation was
carried out, whose performance was not very appropriate, but it was possible to
identify through a simple quantitative metric the more reliable regions where there
is a greater density of training data.
|
13 |
[en] LIMITED TIME MACHINE TEACHING FOR REGRESSION PROBLEMS / [pt] MACHINE TEACHING COM TEMPO LIMITADO PARA PROBLEMAS DE REGRESSÃOPEDRO LAZERA CARDOSO 02 December 2021 (has links)
[pt] Este trabalho considera o problema de Regressão com Tempo Limitado.
Dados um dataset, um algoritmo de aprendizado (Learner) a ser treinado e
um tempo limitado, não sabemos se seria possível treinar o modelo com todo
o dataset dentro deste tempo. Queremos então elaborar a estratégia que
extraia o melhor modelo possível deste algoritmo de aprendizado respeitando
o limite de tempo. Uma estratégia consiste em interagir com o Learner de
duas formas: enviando exemplos para o Learner treinar e enviando exemplos
para o Learner rotular. Nós definimos o que é o problema de Regressão
com Tempo Limitado, decompomos o problema de elaborar uma estratégia
em subproblemas mais simples e bem definidos, elaboramos uma estratégia
natural baseada em escolha aleatória de exemplos e finalmente apresentamos
uma estratégia, TW+BH, que supera a estratégia natural em experimentos
que realizamos com diversos datasets reais. / [en] This work considers the Time-Limited Regression problem. Given a dataset,
a learning algorithm (Learner) to be trained and a limited time, we do not
know if it s going to be possible to train the model with the entire dataset
within this time constraint. We then want to elaborate the strategy that
extracts the best possible model from this learning algorithm respecting the
time limit. A strategy consists of a series of interactions with the Learner,
in two possible ways: sending labeled examples for the Learner to train
and sending unlabeled examples for the Learner to classify. We define what
the Time-Limited Regression problem is, we decompose the problem of
elaborating a strategy into simpler and more well-defined sub-problems, we
elaborate a natural strategy based on random choice of examples and finally
we present a strategy, TW+BH, that performs better than the natural strategy
in experiments we have done with several real datasets.
|
14 |
[pt] A SUPERVISÃO HUMANA DAS DECISÕES AUTÔNOMAS DE IA COMO INSTRUMENTO DE TUTELA DA AUTONOMIA EXISTENCIAL / [en] HUMAN SUPERVISION OF AUTOMATED AI DECISIONS AS AN INSTRUMENT FOR THE PROTECTION OF HUMAN AUTONOMYRUBIA LUANA CARVALHO VIEGAS SCHMALL 27 September 2023 (has links)
[pt] A sociedade passa por um momento de intensas transformações pautadas no uso de novas tecnologia. Nesse contexto, a inteligência artificial (IA) assume o papel de protagonista gerando debates acerca dos limites da sua aplicação. Cada vez mais presente na vida dos indivíduos e instituições, a IA participa de processos de tomada de decisão que, não raro, têm reflexos em direitos fundamentais e questões existenciais dos indivíduos. Tendo em vista a busca de soluções pautadas na centralidade humana no uso da tecnologia, o presente estudo se propõe a investigar a supervisão humana como instrumento de tutela da autonomia existencial no contexto de tomada de decisões automatizadas por sistemas de IA. Por meio da análise da relação entre a autonomia da máquina e a autonomia existencial, o texto traça o caminho para a investigação dos princípios e dispositivos legais vigentes que legitimam a necessidade da supervisão humana sobre os resultados decisórios gerados por sistemas de IA de alto risco, bem como o tratamento do tema nas propostas legislativas em trâmite no Brasil e União Europeia que visam regular os usos e aplicações da IA. / [en] The society is going through a moment of intense transformations based on the use of new technologies. In this context, artificial intelligence (AI) takes on the role of protagonist, generating debates about the limits of its application. Increasingly present in the lives of individuals. In view of the search for solutions based on the human centrality in the use of technology, the present study proposes to investigate human supervision as an intrument to protect human autonomy in the context of automated decision-making by AI systems.Through the analysis of the relation between machine autonomy and existential autonomy, the text outlines the path for the investigation of the current legal principles and laws that legitimize the need for human supervision over the decision-makinngg results generated by high-risk AI systems as well as the treatment of the subject in the legislative proposals in progress in Brazil and European Union that aim to regulate the uses aplications of AI.
|
15 |
[pt] DESENVOLVIMENTO DE MODELOS MATEMÁTICOS PARA AVALIAÇÃO DE PROCESSOS CORROSIVOS EM PLACAS DE CIRCUITO IMPRESSO / [en] DEVELOPMENT OF MATHEMATICAL MODELS FOR THE EVALUATION OF CORROSION PROCESS IN THE PRINTED CIRCUIT BOARDSTAMIRES PIMENTEL BEZERRA 24 June 2020 (has links)
[pt] O aumento do consumo de eletroeletrônicos e o desenvolvimento da tecnologia, proporcionou o surgimento de uma gama de produtos com diferentes funcionalidades, cada vez mais complexos e menores. As placas de circuito impresso (PCIs) são consideradas a parte principal dos dispositivos eletrônicos, sendo o cobre o seu componente elementar. O desenho e espessura das trilhas do circuito são determinantes para caracterizar a passagem de corrente elétrica nos equipamentos eletroeletrônicos e seu funcionamento está diretamente ligado a qualidade da confecção das trilhas do circuito. Este trabalho tem como objetivo
estudar o processo de lixiviação do cobre, mediante a reação do ácido clorídrico, cloreto de cobre II e fluxo de ar. Além de investigar as condições experimentais ótimas do processo, que tem como principal característica a possibilidade de regeneração e reutilização da solução. Modelos para avaliar o efeito da
concentração de ácido e fluxo de ar na corrosão das placas de circuito impresso foram desenvolvidos através da aplicação do planejamento experimental (pelo método clássico e por algoritmo genéticos em modelos polinomiais) e redes neurais artificiais. Visando encontrar as melhores condições experimentais para o sistema proposto, além de investigar a melhor técnica de predição do mesmo. Os resultados
obtidos pelas previsões foram comparados com os resultados experimentais reais. As modelagens foram comparadas pela análise dos coeficientes de correlação (R2) e índices de erro (SSE, MSE e RMSE). Constatando-se que o modelo polinomial foi o mais adequado para prever a resposta. Através da investigação da superfície de resposta e curvas de contorno, foram identificadas as condições otimizadas para o processo. Das quais as concentrações ótimas de ácido clorídrico, cloreto de cobre II e fluxo de ar foram 1 mol.L-1, 0.3 mol.L-1 e 0.5 L/ min, respectivamente. / [en] The increased consumption of consumer electronics and the development of technology has led to the emergence of a range of products with different features, increasingly complex and smaller. Printed circuit boards (PCIs) are considered the main part of electronic devices, with copper being their elementary component. The design and thickness of the circuit tracks are crucial to characterize the passage of electric current in electronic equipment and its operation is directly linked to the quality of the circuit tracks. This work aims to study the copper leaching process through the reaction of hydrochloric acid, copper chloride II and airflow. In addition to investigating the optimal experimental conditions of the process, which has as its
main feature the possibility of regeneration and reuse of the solution. Models to evaluate the effect of acid concentration and airflow on PCB corrosion were developed by applying experimental design (by the classical method and by the genetic algorithm in polynomial models) and artificial neural networks. Aiming to find the best experimental conditions for the proposed system, besides investigating the best prediction technique. The results obtained by the predictions were compared with the actual experimental results. The modeling was compared by analysis of correlation coefficients (R2) and error indices (SSE, MSE, and RMSE). Noting that the polynomial model was the most appropriate to predict the response. Through investigation of the response surface and contour curves, the optimized conditions for the process were identified. Of which the optimal concentrations of hydrochloric acid, copper chloride II and airflow were 1 mol.L-1, 0.3 mol.L-1 and 0.5 L / min, respectively.
|
16 |
[en] POSITIONING AND CALIBRATION OF A UNDERWATER ROBOTIC MANIPULATOR WITH USE OF COMPUTACIONAL VISION / [pt] POSICIONAMENTO E CALIBRAÇÃO DE UM MANIPULADOR ROBÓTICO SUBMARINO COM USO DE VISÃO COMPUTACIONALMIGUEL ANGELO GASPAR PINTO 22 November 2006 (has links)
[pt] Muitos dos robôs industriais utilizados atualmente seguem
uma programação
baseada em rastreamento de trajetórias. O robô é guiado
por um operador humano para
localizações fixas onde ele atuará. Esses movimentos são,
então, gravados na linguagem
de programação residente no controlador do robô, de forma
que este seja capaz de
repetir as tarefas. Este método pode ser suficiente para,
por exemplo, movimentar
objetos entre locais fixos. Como o robô está treinado para
se movimentar em posições
fixas, todas as partes do manipulador, bem como todos os
objetos que serão
manipulados devem estar em posições bem definidas, ou uma
nova programação deverá
ser feita. Outra metodologia é a de teleoperação, na qual
a movimentação de sistemas
robóticos é executada em modo manual, no qual o operador
trabalha em uma arquitetura
mestre-escravo controlando direta e continuamente as
posições do manipulador. Para
essas tarefas é necessário apenas que o sistema possua um
alto grau de repetibilidade,
uma vez que quaisquer erros absolutos de posicionamento
são visualmente
compensados pelo operador humano. Porém em certas
aplicações robóticas essas
técnicas de programação de manipuladores são impraticáveis
ou insatisfatórias. A
primeira vem a ser impraticável no caso de alta
variabilidade do ambiente onde a tarefa
está sendo feita. O segundo método atribui ao robô uma
precisão absoluta baixa, devido
a própria deficiência da percepção humana. Este trabalho
segue pelas tendências
modernas de automação, as quais vêm colocando uma
crescente ênfase em robôs
guiados por sensores e programação off-line, automatizando
total ou parcialmente
muitas das tarefas a serem executadas. Sensores, como
câmeras ligadas a um sistema de
visão computacional, detectam diferenças entre a posição
real do manipulador e a
posição desejada. Estas diferenças são então enviadas para
os controladores, para que
estes corrijam a trajetória pré-programada. Os comandos de
movimento do manipulador
são programados off-line por um sistema de CAD, sem a
necessidade de ativar o robô,
permitindo maior velocidade em sua validação e na
resolução de problemas.
Apresentam-se neste trabalho metodologias e técnicas para
o posicionamento do
manipulador utilizando-se, para tanto, câmeras em sua
extremidade. Uma vez
posicionado o manipulador em relação ao espaço de
coordenadas do mundo, é possível
deslocá-lo com segurança e precisão em sua área de
trabalho, o que é imprescindível
para automatização de tarefas complexas. O trabalho está
concentrado nas aplicações de
técnicas de visão computacional à calibração de
manipuladores. Como estudo de caso
utiliza-se uma situação real, de um manipulador submarino
de seis graus de liberdade,
para intervenções submarinas em plataformas de petróleo.
Abordam-se a calibração de
câmeras, reconhecimento de padrões, correlação de padrões
em imagens distintas,
estereoscopia, cinemática direta e inversa de
manipuladores e a união de todas estas
técnicas para o posicionamento do manipulador em sua área
de trabalho. / [en] Many of today´s industrial robots are still programmed to
follow trajectories. The
robot is guided by a human operator to the desired fixed
application locations. These
motions are recorded and are later edited, within the
robotic language residing in the
robot controller, and played back, for the robot to be
able to repetitively perform its
task. This methodology is enough to move objects between
fixed locations. As the robot
is trained to move within fixed positions, all manipulator
parts, as well as all the objects
which will be manipulated need to be in well defined
positions, otherwise another
program is needed. Another methodology would be
teleoperation, where the robotic
system`s movements are executed in manual mode, having the
operator working in a
master-slave architecture, controlling direct and
continuously the positions of the robot.
For these tasks it is needed only for the system to have
enough repeatability, once any
absolute positioning errors can be visually compensated by
the human operator. On the
other side, in certain robotic applications, both
programming techniques are either not
practical or inefficient. The first, where the human
operator teaches the trajectories to
the robot, is not possible when there is high variance in
the environment where the task
is being performed. The second method, the teleoperation,
has low absolute accuracy,
due the deficiencies of human perception. This project
follows modern tendencies of
automation, which give increasing emphasis on robots
guided by sensors and off-line
programming, partially or completely automating many of
the tasks to be executed.
Sensors such as cameras eloed to a system of computational
vision detect differences
between the actual and desired position of the
manipulator. This information is sent to
controllers to correct the pre-programated trajectory. The
manipulator movement
commands are programmed off-line by a CAD system, without
need even to turn on the
robot, allowing for greatest speed on its validation, as
well as problem solving. This
work presents methodologies and techniques which allow the
precise positioning of the
manipulator using cameras in its end-effector. Once it is
positioned in relation with the
world frame, it is possible to move the manipulator with
safety and precision its work
area, as is needed for automation of complex tasks. This
work is focused on
computational vision techniques applied for manipulator
calibration. It is based on a real
case of a subsea manipulator of six degrees of freedom,
used for underwater
interventions in oil exploring platforms. The subjects
treated in this work include
camera calibration, pattern recognition, position
tracking, stereopsis, direct and inverse
manipulator kinematics and the union of all techniques for
manipulator positioning in
the work area.
|
17 |
[en] PIPELINE TRANSPORTATION PLANNERS / [pt] PLANEJADORES PARA TRANSPORTE EM POLIDUTOSFREDERICO DOS SANTOS LIPORACE 20 April 2006 (has links)
[pt] Oleodutos têm um papel importante no transporte de
petróleo e de seus derivados, pois são a maneira mais
eficaz de transportar grandes volumes por longas
distâncias. A motivação deste trabalho é que uma parte não
negligenciável do preço final de um derivado de petróleo é
influenciada pelo custo de transporte. Apesar disso, até
onde sabemos, apenas alguns autores trabalharam neste
problema específico, a maioria utilizando técnicas de
programação inteira. Este trabalho analisa a utilização de
técnicas de inteligência artificial, arcabouços de
software e simulação discreta orientada a eventos para a
construção de planejadores automáticos capazes de lidar
com instâncias reais de problemas de transporte em
oleodutos. A primeira contribuição dessa tese é a
especificação de um novo domínio para problemas de
planejamento, denominado PIPESWORLD. Este domínio é
inspirado no problema de transporte em oleodutos e
especificado em PDDL. Por sua estrutura original, ele foi
incorporado ao benchmark oficial da 4th International
Planner Competition, evento bi-anual que compara o
desempenho de diversos planejadores automáticos de
propósito geral. Mesmo sendo uma simplificação do problema
original, o PIPESWORLD se mostra um domínio bastante
desafiador para o estado da arte dos planejadores. É
demonstrado também que problemas de decisão derivados de
diversas configurações do Pipesworld são NP-Completos. A
segunda contribuição dessa tese é o arcabouço de software
PLANSIM. Este framework incorpora uma máquina de busca que
pode utilizar diversas estratégias, e define uma estrutura
que facilita a construção de planejadores automáticos
baseados em busca heurística direta que utilizam como
modelo do processo a ser planejado simuladores orientados
a eventos discretos. São apresentadas instanciações do
PLANSIM para a construção de planejadores para problemas
clássicos de como o das Torres de Hanoi e Blocksworld. A
terceira contribuição da tese é a instanciação do PLANSIM
para a construção de um planejador automático capaz de
tratar instâncias reais de planejamento de transporte em
oleodutos, denominado PLUMBER 05. A utilização de técnicas
de simulação discreta orientada a eventos para a
representação do modelo do sistema a ser planejado permite
que este seja bastante fiel ao problema original. Isto
somado ao uso do PLANSIM facilita a construção de
planejadores capazes de lidar com instâncias reais. / [en] Pipelines have an important role in oil and its
derivatives transportation,
since they are the most effective way to transport high
volumes through
long distances. The motivation for this work is that a non
negligible part
of the final price for those products are due to
transportation costs. Few
authors have addressed this problem, with most of the
previous work using
integer programming techniques. This work analyses the use
of Artificial
Intelligence techniques, discrete event simulators and
software frameworks
for building automated planners that are able to deal with
real-world oil
pipeline transportation instances. The first contribution
of this thesis is the
specification of a new planning domain called PIPESWORLD.
This domain
is inspired by the oil pipeline transportation problem,
and is defined
in PDDL. Due to its original structure, the PIPESWORLD
domain has
been incorporated to the 4th International Planning
Competition benchmark.
Even being a simplification of the original problem,
PIPESWORLD
instances in the benchmark are challenging to state of art
solvers. It is also
shown that decision problems based on PIPESWORLD
configurations are
NP-Hard. The second contribution of this thesis is the
PLANSIM opensource
framework. This framework incorporates a search engine
that may
use several different strategies, and defines a structure
that facilitates the
construction of automated planners based on heuristic
forward search that
use discrete event simulators as the model for the process
to be planned. The
third contribution of this thesis is a PLANSIM
instantiation that results in
an automated planner able to deal with real-world oil
pipeline transportation
instances, called PLUMBER 2. The use of discrete event
simulation
techniques for the model of the system to be planned
allows this model to
be very close to the original problem. This, in
conjunction with PLANSIM
usage, facilitates the construction of planners that are
able to cope with
real-world instances.
|
18 |
[en] INTELLIGENT SYSTEM FOR WEB TEXTS / [pt] SISTEMAS INTELIGENTES PARA TEXTOS DA WEBFERNANDO HIDEO FUKUDA 18 October 2005 (has links)
[pt] Esta dissertação investigou a aplicação dos processos de
KDD (Knowledge Discovery in Databases) e técnicas de
inteligência artificial para a criação de uma ferramenta
de avaliação de textos da WEB de acordo com um determinado
perfil.
O trabalho, na área de sistemas de computação, teve como
objetivo o desenvolvimento de técnicas que em conjunto com
técnicas de inteligência computacional podem automatizar a
avaliação de textos através de uma ferramenta, bem como a
construção de um protótipo desta ferramenta.
As técnicas inéditas desenvolvidas nesta dissertação
tiveram como objetivo avaliar automaticamente textos
independente da língua utilizada nestes e sem o uso de
técnicas de PLN (Processador de Linguagem Natural).
Outro objetivo foi desenvolver este trabalho baseado em
alguns conceitos, ferramentas, formas de documentação
considerados em trabalhos anteriores como forma de dra
continuidade ao desenvolvimento científico.
O protótipo, SITEX - Sistema Inteligente para Textos WEB -
foi desenvolvido e módulos que permitem utilizar a
ferramenta que melhor se enquadre na solução de um
problema.
Um outro objetivo no desenvolvimento do protótipo foi a
utilização da linguagem C++, a qual é largamente utilizada
e conhecida entre os desenvolvedores de técnicas de
inteligência artificial, permitindo com isso a integração
e o desenvolvimento de outros módulos.
As técnicas foram desenvolvidas tendo também como objetivo
o tratamento de padrões da WEB, como o Protocolo TCP/IP,
as linguagens HTML, DHTML, Javascript, VBscript, entre
outros, o que permite a utilização destas na Internet,
Extranet ou localmente.
Os estudos de casos foram realizados com textos fornecidos
pela WEB através de inscrições em jornais on-line e
avaliados de acordo com três tipos de perfis.
Os perfis utilizados nos estudos de casos foram: economia,
esportes e informática.
Os resultados dos estudos de casos comprovam a validade
das técnicas descobertas e implementadas neste trabalho.
A comparação dos resultados do SITEX com os resultados do
TextAnalyst, produto de mercado para análise de texto da
Web baseado em inteligência computacional, comprovam a
qualidade das técnicas apresentadas nesta dissertação. / [en] This dissertation investigated the application of KDD´s
process and artificial intelligence techniques for the
development of a WEB text evaluation tool according to a
specific interest.
The work, in computing systems area, had as objective the
development of techniques together with computing
intelligence techniques to automate the texts evaluation
by a tool, as well the development of a prototype of this
tool.
The techniques developed in this dissertation had as
objective evaluate taext automatically with independence
of the language used and without using NLP (natural
Language Processing) techniques.
Another onjective was develop this work based on others
works as a way to continue the scientific development.
The prototype, SITEX - Intelligent System for WEB Texts -
was developed by modules which provides the condition to
choose the best tool to solve a problem.
Another objectiv on the development of the prototype was
to use the C++ language, which is largely used and well
known by artificial intelligence techniques developers,
providing in this way facilities for development and
integration of others modules.
The techniques was also developed with the objective for
WWB standards treatment, as the TCP/IP protocol, lamguages
as HTML, DHTML, javascript, Vbscript, and others, which
provides the usage of theses techniques in the Internet,
intranets, Extranets and locally.
The case studies werw based on WEB texts provided by on-
line newsletters subscriptions and evaluated according to
three types of interests.
The interests used in these case studies were: ecoonomy,
sports and computing.
The results found in this case studies shows the validity
of the techniques developed in this work.
The results os SITEX compared to the result of
TextAnalyst, a well known product in the market for Web
text analysis based on artificial intelligence, shows the
quality of the techniques discovered in this dissertation.
|
19 |
[en] MODELING AND OPTIMIZATION STRATEGIES IN SUGARCANE BAGASSE DELIGNIFICATION PROCESS / [pt] ESTRATÉGIAS DE MODELAGEM E OTIMIZAÇÃO APLICADAS AO PROCESSO DE DESLIGNIZAÇÃO DO BAGAÇO DA CANA-DE-AÇÚCARISABELLE CUNHA VALIM 07 January 2019 (has links)
[pt] O bagaço da cana-de-açúcar é uma biomassa vegetal que possui muito potencial
de uso devido aos seus três elementos estruturais: celulose, hemicelulose
e lignina. Para servir como matéria prima na produção de insumos, o bagaço
da cana-de-açúcar precisa passar por um processo de pré-tratamento. Nesse
estudo, duas metodologias para o processo de pré-tratamento do bagaço da
cana-de-açúcar foram utilizadas: a deslignização via peróxido de hidrogênio
(H2O2) e via dióxido de carbono supercrítico (ScCO2). Para o estudo utilizando
H2O2, foram desenvolvidos modelos a partir de planejamento experimental,
Algoritmos Genéticos (GA, do inglês Genetic Algorithms), Redes
Neurais Artificiais (RNA) e Neuro-Fuzzy (ANFIS). As variáveis independentes
foram temperatura (25 – 60 graus Celsius), concentração de H2O2 (2 – 15 por cento
m/v) e pH (10 – 13), tendo como resposta os teores de lignina residual e
oxidada no processo, através de análises de FT-IR e análise pelo método
de Klason. Para o estudo utilizando ScCO2 foram construídos modelos a
partir de RNA e ANFIS. As variáveis estudadas no processo foram: temperatura
(35 – 100 graus Celsius), pressão (75- 300 bar) e teor de etanol na solução de
co-solvente (0 – 100 graus Celsius). De modo geral, para os dois processos, os modelos
desenvolvidos consideram as variáveis independentes como sendo neurônios
na camada de entrada e as variáveis dependentes como sendo neurônios na
camada de saída. Todos os modelos neurais e ANFIS desenvolvidos neste
trabalho foram avaliados pelo coeficiente de correlação e índices de
erro (SSE, MSE e RMSE), além do número de parâmetros. Os resultados
mostraram que, dentre estas estratégias estudadas, os modelos neurais se
mostraram mais satisfatórios para predição das respostas do pré-tratamento
com H2O2, já que se encaixa nos índices de performance estipulados. O
mesmo ocorreu no modelo neural para predição do teor de lignina residual
no pré-tratamento com ScCO2. Para cada modelo polinomial e neural desenvolvido,
foi realizada a investigação das superfícies de respostas e das
curvas de contorno. Com esse recurso, foi possível a identificação dos melhores
pontos operacionais para os processos, visando a minimização dos
teores de lignina residual e oxidada na biomassa. / [en] Sugarcane bagasse is a plant biomass that has a great potential for use due
to its three structural elements: cellulose, hemicellulose and lignin. To serve
as raw material in the production of other products, sugarcane bagasse needs
to undergo a pre-treatment process. In this study, two methodologies for the
sugarcane bagasse pretreatment process were used: delignification via hydrogen
peroxide (H2O2) and via supercritical carbon dioxide (ScCO2). The
models for study the process with H2O2 were developed from experimental
planning, Genetic Algorithms (GA), Artificial Neural Networks (ANN) and
Neuro-Fuzzy (ANFIS). The independent variables were: temperature (25-
60 degrees Celsius), H2O2 concentration (2 - 15 percent m/v) and pH (10-13). The residual
and oxidized lignin contents in the process were evaluated from FT-IR and
Klason method analysis. The models for study the process with ScCO2 were
developed from RNA and ANFIS. The variables studied in the process were:
temperature (35-100 degrees Celsius), pressure (75-300 bar) and ethanol content in the
aqueous solution of co-solvent (0-100 percent). In general, for the two processes,
the developed models consider the independent variables to be neurons in
the input layer and the dependent variables to be neurons in the output
layer. All the neural and ANFIS models developed in this study were evaluated
by the correlation coefficient and error indexes (SSE, MSE and
RMSE), as well as the number of parameters. From the stipulated indices
of performance, among the results obtained by the different strategies, the
neural models were the most satisfactory for the prediction of pretreatment
responses with H2O2. The same occurred in the neural model for prediction
of the residual lignin content in the pre-treatment with ScCO2. Response
surfaces and the contour curves were investigated for each polynomial and
neural model developed. With this resource, it was possible to identify the
best operational points for the processes, pointing at minimizing the residual
and oxidized lignin contents in the biomass.
|
20 |
[en] MAS-SCHOOL E ASYNC: A METHOD AND A FRAMEWORK FOR BUILDING INTELLIGENT AGENTS / [pt] MAS-SCHOOL E ASYNC: UM MÉTODO E UM FRAMEWORK PARA CONSTRUÇÃO DE AGENTES INTELIGENTESJOSE ALBERTO RODRIGUES PEREIRA SARDINHA 08 July 2005 (has links)
[pt] Agentes de Software é uma tecnologia que permite criar
simuladores e
sistemas inteligentes que tomam decisões
automaticamente.
A primeira
contribuição dessa tese é o MAS-School, um método para
modelar e implementar
agentes de software inteligentes desde as primeiras
fases
de desenvolvimento.
Esse método também apresenta várias orientações de como
incluir aprendizado na
fase de design e implementação. O método apresenta no
final uma estratégia
incremental de desenvolvimento para permitir a avaliação
do desempenho das
técnicas de machine learning. A segunda contribuição
dessa
tese é o framework
ASYNC. O ASYNC é composto por um conjunto de ferramentas
de engenharia
de software para auxiliar a construção de sistemas
baseados em agentes
assíncronos, cooperativos e inteligentes. Esta tese
apresenta quatro estudos de
casos complexos desenvolvidos com agentes inteligentes
para exemplificar o uso
do método e framework. A primeira aplicação apresenta um
sistema baseado em
agentes para criar promoções em um mercado varejista
utilizando o conceito de
agregação de produtos. A segunda aplicação apresenta um
mercado virtual para
compra e venda de bens. A terceira aplicação é um
sistema
multi-agente
distribuído para um complexo cenário de procurement em
leilões simultâneos e
interdependentes. Essa aplicação participou do Trading
Agent Competition em
2004 e obteve a terceira colocação. A quarta aplicação é
um sistema multi-agente
para um Supply Chain Management. / [en] The agent technology is used to develop systems that
perform several
complex tasks. This thesis presents the MAS-School method
for modeling and
implementing intelligent agent-based systems. The method
presents a systematic
approach to support a disciplined introduction of machine
learning techniques in
multi-agent systems from an early stage of design. The
proposed approach
encompasses guidelines to both the design and
implementation phases of an
agent-based system. It is based on an incremental
development strategy that
largely relies on simulation and testing techniques. This
thesis also presents the
ASYNC framework that is composed of software engineering
tools for building
agent based system for asynchronous, cooperative and
intelligent agents. This
thesis presents four complex applications that used the
proposed method and
framework in the design and implementation phase. The
first case study presents
an application that discovers the most appealing offerings
for consumers in a retail
market. The second case study presents a virtual
marketplace for buying and
selling goods with automatic negotiation. The third case
study is a multi-agent
system for a complex procurement scenario with
interdependent and simultaneous
auctions. This system achieved the third place in the 2004
TAC Classic
competition. The fourth case study is a multi-agent system
for a PC manufacturer
scenario based on sourcing of components, manufacturing of
PC's and sales to
customers.
|
Page generated in 0.0576 seconds