31 |
[pt] DESENVOLVIMENTO DE MODELOS MATEMÁTICOS PARA AVALIAÇÃO DE PROCESSOS CORROSIVOS EM PLACAS DE CIRCUITO IMPRESSO / [en] DEVELOPMENT OF MATHEMATICAL MODELS FOR THE EVALUATION OF CORROSION PROCESS IN THE PRINTED CIRCUIT BOARDSTAMIRES PIMENTEL BEZERRA 24 June 2020 (has links)
[pt] O aumento do consumo de eletroeletrônicos e o desenvolvimento da tecnologia, proporcionou o surgimento de uma gama de produtos com diferentes funcionalidades, cada vez mais complexos e menores. As placas de circuito impresso (PCIs) são consideradas a parte principal dos dispositivos eletrônicos, sendo o cobre o seu componente elementar. O desenho e espessura das trilhas do circuito são determinantes para caracterizar a passagem de corrente elétrica nos equipamentos eletroeletrônicos e seu funcionamento está diretamente ligado a qualidade da confecção das trilhas do circuito. Este trabalho tem como objetivo
estudar o processo de lixiviação do cobre, mediante a reação do ácido clorídrico, cloreto de cobre II e fluxo de ar. Além de investigar as condições experimentais ótimas do processo, que tem como principal característica a possibilidade de regeneração e reutilização da solução. Modelos para avaliar o efeito da
concentração de ácido e fluxo de ar na corrosão das placas de circuito impresso foram desenvolvidos através da aplicação do planejamento experimental (pelo método clássico e por algoritmo genéticos em modelos polinomiais) e redes neurais artificiais. Visando encontrar as melhores condições experimentais para o sistema proposto, além de investigar a melhor técnica de predição do mesmo. Os resultados
obtidos pelas previsões foram comparados com os resultados experimentais reais. As modelagens foram comparadas pela análise dos coeficientes de correlação (R2) e índices de erro (SSE, MSE e RMSE). Constatando-se que o modelo polinomial foi o mais adequado para prever a resposta. Através da investigação da superfície de resposta e curvas de contorno, foram identificadas as condições otimizadas para o processo. Das quais as concentrações ótimas de ácido clorídrico, cloreto de cobre II e fluxo de ar foram 1 mol.L-1, 0.3 mol.L-1 e 0.5 L/ min, respectivamente. / [en] The increased consumption of consumer electronics and the development of technology has led to the emergence of a range of products with different features, increasingly complex and smaller. Printed circuit boards (PCIs) are considered the main part of electronic devices, with copper being their elementary component. The design and thickness of the circuit tracks are crucial to characterize the passage of electric current in electronic equipment and its operation is directly linked to the quality of the circuit tracks. This work aims to study the copper leaching process through the reaction of hydrochloric acid, copper chloride II and airflow. In addition to investigating the optimal experimental conditions of the process, which has as its
main feature the possibility of regeneration and reuse of the solution. Models to evaluate the effect of acid concentration and airflow on PCB corrosion were developed by applying experimental design (by the classical method and by the genetic algorithm in polynomial models) and artificial neural networks. Aiming to find the best experimental conditions for the proposed system, besides investigating the best prediction technique. The results obtained by the predictions were compared with the actual experimental results. The modeling was compared by analysis of correlation coefficients (R2) and error indices (SSE, MSE, and RMSE). Noting that the polynomial model was the most appropriate to predict the response. Through investigation of the response surface and contour curves, the optimized conditions for the process were identified. Of which the optimal concentrations of hydrochloric acid, copper chloride II and airflow were 1 mol.L-1, 0.3 mol.L-1 and 0.5 L / min, respectively.
|
32 |
[en] A PERVASIVE PLATFORM FOR INCLUSIVE EDUCATION SUPPORTED BY AI / [pt] UMA PLATAFORMA PERVASIVA PARA EDUCAÇÃO INCLUSIVA APOIADA POR IADJALMA LUCIO SOARES DA SILVA 18 June 2024 (has links)
[pt] A prevalência global de transtornos de aprendizagem, como dislexia, discalculia, autismo e desordens de atenção, atinge cerca de 10 por cento da população,
conforme (BUTTERWORTH, 2018). No Brasil, a falta de um censo específico
dificulta a estimativa precisa, mas estima-se que um número significativo de crianças enfrenta desafios de aprendizagem. Este contexto destaca a necessidade
de soluções inclusivas, especialmente para auxiliar os professores do Atendimento Educacional Especializado (AEE) dos estudantes dos primeiros anos do
Ensino Fundamental I. Esta pesquisa tem como objetivo desenvolver, validar
e avaliar uma plataforma pervasiva baseada em tecnologias web. A plataforma
tem como finalidade proporcionar uma infraestrutura para a criação e execução
de atividades ludificadas, incorporando algoritmos de aprendizado de máquina
e realidade estendida. O foco é direcionado a estudantes dos primeiros anos
do Ensino Fundamental diagnosticadas com Transtorno do Espectro Autista
(TEA) e Transtorno de Déficit de Atenção e Hiperatividade (TDAH). Além
disso, busca-se alternativas de custo acessível para manter a plataforma alinhada ao contexto socioeconômico brasileiro. A pesquisa adotou a metodologia Design Science Research (DSR), que se baseia em ciclos interligados e
iterativos, onde há a definição do problema, concepção, construção, avaliação e disseminação. Esse método orientou o desenvolvimento da plataforma,
garantindo uma abordagem prática e aplicada ao contexto educacional inclusivo. Os resultados da pesquisa culminaram na criação de uma plataforma
web abrangente e acessível, integrando algoritmos de aprendizado de máquina
e realidade estendida. A plataforma permite aos professores do AEE a personalização de atividades ludificadas que atendam às necessidades específicas de estudantes com TEA e TDAH. A plataforma desenvolvida demonstra
promissoras contribuições para a educação inclusiva, oferecendo recursos inovadores e acessíveis. Ao proporcionar uma ferramenta adaptável às demandas
socioeconômicas brasileiras, a pesquisa busca contribuir com a igualdade de
oportunidades educacionais para estudantes com diferentes necessidades de
aprendizagem, o que é garantido por lei através da Lei Brasileira de Inclusão
da Pessoa com Deficiência, Capítulo IV – Do Direito à Educação, Parágrafo
Único, É dever do Estado, da família, da comunidade escolar e da sociedade
assegurar educação de qualidade à pessoa com deficiência, colocando-a a salvo
de toda forma de violência, negligência e discriminação. / [en] The global prevalence of learning disorders, such as dyslexia, dyscalculia,
autism, and attention disorders, affects approximately 10 percent of the population,
according to (BUTTERWORTH, 2018). In Brazil, the lack of a specific census
makes precise estimation difficult, but it is estimated that a significant number of children face learning challenges. This context underscores the need for
inclusive solutions, especially to assist teachers of students in the early years of
Elementary School. This research aims to develop, validate, and evaluate a pervasive web-based platform. The platform aims to provide an infrastructure for
the creation and execution of playful activities, incorporating machine learning
algorithms and extended reality. The focus is on stundents in the early years
of Elementary School diagnosed with Autism Spectrum Disorder (ASD) and
Attention Deficit Hyperactivity Disorder (ADHD). Additionally, affordable alternatives are sought to keep the platform aligned with the Brazilian socioeconomic context. The research adopted the Design Science Research (DSR)
methodology, which is based on interconnected and iterative cycles, including
problem definition, conception, construction, evaluation, and dissemination.
This method guided the development of the platform, ensuring a practical and
applied approach to the inclusive educational context. The research results
led to the creation of a comprehensive and accessible web platform, integrating machine learning algorithms and extended reality. The platform enables
teachers to customize playful activities to meet the specific needs of students
with ASD and ADHD. The developed platform shows promising contributions
to inclusive education, offering innovative and accessible resources. By providing a tool adaptable to Brazilian socioeconomic demands, the research seeks to
contribute equal educational opportunities for students with different learning
needs, as guaranteed by law through the Brazilian Law of Inclusion of Persons
with Disabilities, Chapter IV – The Right to Education, Sole Paragraph, It is
the duty of the State, the family, the school community, and society to ensure
quality education for people with disabilities, protecting them from all forms of
violence, neglect, and discrimination.
|
33 |
[en] PSO+: A LINEAR AND NONLINEAR CONSTRAINTS-HANDLING PARTICLE SWARM OPTIMIZATION / [pt] PSO+: ALGORITMO COM BASE EM ENXAME DE PARTÍCULAS PARA PROBLEMAS COM RESTRIÇÕES LINEARES E NÃO LINEARESMANOELA RABELLO KOHLER 15 August 2019 (has links)
[pt] O algoritmo de otimização por enxame de partículas (PSO, do inglês Particle Swarm Optimization) é uma meta-heurística baseada em populações de indivíduos na qual os candidatos à solução evoluem através da simulação de um modelo simplificado de adaptação social. Juntando robustez, eficiência e simplicidade, o PSO tem adquirido grande popularidade. São reportadas muitas aplicações bem-sucedidas do PSO nas quais este algoritmo demonstrou ter vantagens sobre outras meta-heurísticas bem estabelecidas baseadas em populações de indivíduos. Algoritmos modificados de PSO já foram propostos para resolver problemas de otimização com restrições de domínio, lineares e não lineares. A grande maioria desses algoritmos utilizam métodos de penalização, que possuem, em geral, inúmeras limitações, como por exemplo: (i) cuidado adicional ao se determinar a penalidade apropriada para cada problema, pois deve-se manter o equilíbrio entre a obtenção de soluções válidas e a busca pelo ótimo; (ii) supõem que todas as soluções devem ser avaliadas. Outros algoritmos que utilizam otimização multi-objetivo para tratar problemas restritos enfrentam o problema de não haver garantia de se encontrar soluções válidas. Os algoritmos PSO propostos até hoje que lidam com restrições, de forma a garantir soluções válidas utilizando operadores de viabilidade de soluções e de forma a não necessitar de avaliação de soluções inválidas, ou somente tratam restrições de domínio controlando a velocidade de deslocamento de partículas no enxame, ou o fazem de forma ineficiente, reinicializando aleatoriamente cada partícula inválida do enxame, o que pode tornar inviável a otimização de determinados problemas. Este trabalho apresenta um novo algoritmo de otimização por enxame de partículas, denominado PSO+, capaz de resolver problemas com restrições lineares e não lineares de forma a solucionar essas deficiências. A modelagem do algoritmo agrega seis diferentes capacidades para resolver problemas de otimização com restrições: (i) redirecionamento aritmético de validade de partículas; (ii) dois enxames de partículas, onde cada enxame tem um papel específico na otimização do problema; (iii) um novo método de atualização de partículas para inserir diversidade no enxame e melhorar a cobertura do espaço de busca, permitindo que a borda do espaço de busca válido seja devidamente explorada – o que é especialmente conveniente quando o problema a ser otimizado envolve restrições ativas no ótimo ou próximas do ótimo; (iv) duas heurísticas de criação da população inicial do enxame com o objetivo de acelerar a inicialização das partículas, facilitar a geração da população inicial válida e garantir diversidade no ponto de partida do processo de otimização; (v) topologia de vizinhança, denominada vizinhança de agrupamento aleatório coordenado para minimizar o problema de convergência prematura da otimização; (vi) módulo de transformação de restrições de igualdade em restrições de desigualdade. O algoritmo foi testado em vinte e quatro funções benchmarks – criadas e propostas em uma competição de algoritmos de otimização –, assim como em um problema real de otimização de alocação de poços em um reservatório de petróleo. Os resultados experimentais mostram que o novo algoritmo é competitivo, uma vez que aumenta a eficiência do PSO e a velocidade de convergência. / [en] The Particle Swarm Optimization (PSO) algorithm is a metaheuristic based on populations of individuals in which solution candidates evolve through simulation of a simplified model of social adaptation. By aggregating robustness, efficiency and simplicity, PSO has gained great popularity. Many successful applications of PSO are reported in which this algorithm has demonstrated advantages over other well-established metaheuristics based on populations of individuals. Modified PSO algorithms have been proposed to solve optimization problems with domain, linear and nonlinear constraints; The great majority of these algorithms make use of penalty methods, which have, in general, numerous limitations, such as: (i) additional care in defining the appropriate penalty for each problem, since a balance must be maintained between obtaining valid solutions and the searching for an optimal solution; (ii) they assume all solutions must be evaluated. Other algorithms that use multi-objective optimization to deal with constrained problems face the problem of not being able to guarantee finding feasible solutions. The proposed PSO algorithms up to this date that deal with constraints, in order to guarantee valid solutions using feasibility operators and not requiring the evaluation of infeasible solutions, only treat domain constraints by controlling the velocity of particle displacement in the swarm, or do so inefficiently by randomly resetting each infeasible particle, which may make it infeasible to optimize certain problems. This work presents a new particle swarm optimization algorithm, called PSO+, capable of solving problems with linear and nonlinear constraints in order to solve these deficiencies. The modeling of the algorithm has added six different capabilities to solve constrained optimization problems: (i) arithmetic redirection to ensure particle feasibility; (ii) two particle swarms, where each swarm has a specific role in the optimization the problem; (iii) a new particle updating method to insert diversity into the swarm and improve the coverage of the
search space, allowing its edges to be properly exploited – which is especially convenient when the problem to be optimized involves active constraints at the optimum solution; (iv) two heuristics to initialize the swarm in order to accelerate and facilitate the initialization of the feasible initial population and guarantee diversity at the starting point of the optimization process; (v) neighborhood topology, called coordinated random clusters neighborhood to minimize optimization premature convergence problem; (vi) transformation of equality constraints into inequality constraints. The algorithm was tested for twenty-four benchmark functions – created and proposed for an optimization competition – as well as in a real optimization problem of well allocation in an oil reservoir. The experimental results show that the new algorithm is competitive, since it increases the efficiency of the PSO and the speed of convergence.
|
34 |
[en] ARTIFICIAL IMMUNE SYSTEMS APPLIED TO FAULT DETECTION / [pt] SISTEMAS IMUNOLÓGICOS ARTIFICIAIS APLICADOS À DETECÇÃO DE FALHASJORGE LUIS M DO AMARAL 03 May 2006 (has links)
[pt] Este trabalho investiga métodos de detecção de falhas
baseados em sistemas
imunológicos artificiais, especificamente aqueles baseados
no algoritmo de
seleção negativa (NSA) e em outras técnicas de
reconhecimento próprio/nãopróprio.
Inicialmente, foi proposto um esquema de representação
baseado em
hiperesferas com centros e raios variáveis e três modelos
capazes de gerar
detectores, com esta representação, de forma eficiente. O
primeiro modelo utiliza
algoritmos genéticos onde cada gene do cromossomo contém
um índice para um
ponto de uma distribuição quasi-aleatória que servirá como
centro do detector e
uma função decodificadora responsável por determinar os
raios apropriados. A
aptidão do cromossomo é dada por uma estimativa do volume
coberto através
uma integral de Monte Carlo. O segundo modelo utiliza o
particionamento
Quadtree para gerar o posicionamento dos detectores e o
valor dos raios. Este
modelo pode realizar o particionamento a partir de uma
função de detecção ou
através de divisões recursivas de um detector inicial que
ocupa todo o espaço. O
terceiro modelo é inspirado nas redes imunológicas. Neste
modelo, as células B
representam os detectores e a rede formada por eles dá a
posição e o raio de cada
detector. Experimentos com dados sintéticos e reais
demonstram a capacidade dos
algoritmos propostos e que eles apresentam melhorias nos
aspectos de
escalabilidade e desempenho na detecção de falhas. / [en] This work investigates fault detection methods based on
Artificial Immune
Systems, specifically the negative selection algorithm
(NSA) and other self/nonself
recognition techniques. First, there was proposed a
representation scheme
based on hyperspheres with variable center and radius, and
three models, which
are very capable to generate detectors, based on that
representation scheme, in an
effective way. The first model employs Genetic Algorithms
where each
chromosome gene represents an index to a point in a quasi-
random distribution,
that will serve as a detector center, a decoder function
will be responsible to
determine the appropriate radius. The chromosome fitness
is given by a valuation
of the covered volume, which is calculated through a Monte
Carlo integral. The
second model uses the Quadtree space partition technique
to generate the
detectors positions and their radius. The space partition
could be done by using a
detection function or by recursive divisions of an initial
detector that occupies the
whole space. In third model, inspired on immune networks,
the B cells represent
the detectors and the network that is established by them
gives the location and
radius of each detector. Experiments with syntetic and
real data show that the
proposed algorithms improve scalability and perform better
in fault detection.
|
35 |
[en] POSITIONING AND CALIBRATION OF A UNDERWATER ROBOTIC MANIPULATOR WITH USE OF COMPUTACIONAL VISION / [pt] POSICIONAMENTO E CALIBRAÇÃO DE UM MANIPULADOR ROBÓTICO SUBMARINO COM USO DE VISÃO COMPUTACIONALMIGUEL ANGELO GASPAR PINTO 22 November 2006 (has links)
[pt] Muitos dos robôs industriais utilizados atualmente seguem
uma programação
baseada em rastreamento de trajetórias. O robô é guiado
por um operador humano para
localizações fixas onde ele atuará. Esses movimentos são,
então, gravados na linguagem
de programação residente no controlador do robô, de forma
que este seja capaz de
repetir as tarefas. Este método pode ser suficiente para,
por exemplo, movimentar
objetos entre locais fixos. Como o robô está treinado para
se movimentar em posições
fixas, todas as partes do manipulador, bem como todos os
objetos que serão
manipulados devem estar em posições bem definidas, ou uma
nova programação deverá
ser feita. Outra metodologia é a de teleoperação, na qual
a movimentação de sistemas
robóticos é executada em modo manual, no qual o operador
trabalha em uma arquitetura
mestre-escravo controlando direta e continuamente as
posições do manipulador. Para
essas tarefas é necessário apenas que o sistema possua um
alto grau de repetibilidade,
uma vez que quaisquer erros absolutos de posicionamento
são visualmente
compensados pelo operador humano. Porém em certas
aplicações robóticas essas
técnicas de programação de manipuladores são impraticáveis
ou insatisfatórias. A
primeira vem a ser impraticável no caso de alta
variabilidade do ambiente onde a tarefa
está sendo feita. O segundo método atribui ao robô uma
precisão absoluta baixa, devido
a própria deficiência da percepção humana. Este trabalho
segue pelas tendências
modernas de automação, as quais vêm colocando uma
crescente ênfase em robôs
guiados por sensores e programação off-line, automatizando
total ou parcialmente
muitas das tarefas a serem executadas. Sensores, como
câmeras ligadas a um sistema de
visão computacional, detectam diferenças entre a posição
real do manipulador e a
posição desejada. Estas diferenças são então enviadas para
os controladores, para que
estes corrijam a trajetória pré-programada. Os comandos de
movimento do manipulador
são programados off-line por um sistema de CAD, sem a
necessidade de ativar o robô,
permitindo maior velocidade em sua validação e na
resolução de problemas.
Apresentam-se neste trabalho metodologias e técnicas para
o posicionamento do
manipulador utilizando-se, para tanto, câmeras em sua
extremidade. Uma vez
posicionado o manipulador em relação ao espaço de
coordenadas do mundo, é possível
deslocá-lo com segurança e precisão em sua área de
trabalho, o que é imprescindível
para automatização de tarefas complexas. O trabalho está
concentrado nas aplicações de
técnicas de visão computacional à calibração de
manipuladores. Como estudo de caso
utiliza-se uma situação real, de um manipulador submarino
de seis graus de liberdade,
para intervenções submarinas em plataformas de petróleo.
Abordam-se a calibração de
câmeras, reconhecimento de padrões, correlação de padrões
em imagens distintas,
estereoscopia, cinemática direta e inversa de
manipuladores e a união de todas estas
técnicas para o posicionamento do manipulador em sua área
de trabalho. / [en] Many of today´s industrial robots are still programmed to
follow trajectories. The
robot is guided by a human operator to the desired fixed
application locations. These
motions are recorded and are later edited, within the
robotic language residing in the
robot controller, and played back, for the robot to be
able to repetitively perform its
task. This methodology is enough to move objects between
fixed locations. As the robot
is trained to move within fixed positions, all manipulator
parts, as well as all the objects
which will be manipulated need to be in well defined
positions, otherwise another
program is needed. Another methodology would be
teleoperation, where the robotic
system`s movements are executed in manual mode, having the
operator working in a
master-slave architecture, controlling direct and
continuously the positions of the robot.
For these tasks it is needed only for the system to have
enough repeatability, once any
absolute positioning errors can be visually compensated by
the human operator. On the
other side, in certain robotic applications, both
programming techniques are either not
practical or inefficient. The first, where the human
operator teaches the trajectories to
the robot, is not possible when there is high variance in
the environment where the task
is being performed. The second method, the teleoperation,
has low absolute accuracy,
due the deficiencies of human perception. This project
follows modern tendencies of
automation, which give increasing emphasis on robots
guided by sensors and off-line
programming, partially or completely automating many of
the tasks to be executed.
Sensors such as cameras eloed to a system of computational
vision detect differences
between the actual and desired position of the
manipulator. This information is sent to
controllers to correct the pre-programated trajectory. The
manipulator movement
commands are programmed off-line by a CAD system, without
need even to turn on the
robot, allowing for greatest speed on its validation, as
well as problem solving. This
work presents methodologies and techniques which allow the
precise positioning of the
manipulator using cameras in its end-effector. Once it is
positioned in relation with the
world frame, it is possible to move the manipulator with
safety and precision its work
area, as is needed for automation of complex tasks. This
work is focused on
computational vision techniques applied for manipulator
calibration. It is based on a real
case of a subsea manipulator of six degrees of freedom,
used for underwater
interventions in oil exploring platforms. The subjects
treated in this work include
camera calibration, pattern recognition, position
tracking, stereopsis, direct and inverse
manipulator kinematics and the union of all techniques for
manipulator positioning in
the work area.
|
36 |
[en] PIPELINE TRANSPORTATION PLANNERS / [pt] PLANEJADORES PARA TRANSPORTE EM POLIDUTOSFREDERICO DOS SANTOS LIPORACE 20 April 2006 (has links)
[pt] Oleodutos têm um papel importante no transporte de
petróleo e de seus derivados, pois são a maneira mais
eficaz de transportar grandes volumes por longas
distâncias. A motivação deste trabalho é que uma parte não
negligenciável do preço final de um derivado de petróleo é
influenciada pelo custo de transporte. Apesar disso, até
onde sabemos, apenas alguns autores trabalharam neste
problema específico, a maioria utilizando técnicas de
programação inteira. Este trabalho analisa a utilização de
técnicas de inteligência artificial, arcabouços de
software e simulação discreta orientada a eventos para a
construção de planejadores automáticos capazes de lidar
com instâncias reais de problemas de transporte em
oleodutos. A primeira contribuição dessa tese é a
especificação de um novo domínio para problemas de
planejamento, denominado PIPESWORLD. Este domínio é
inspirado no problema de transporte em oleodutos e
especificado em PDDL. Por sua estrutura original, ele foi
incorporado ao benchmark oficial da 4th International
Planner Competition, evento bi-anual que compara o
desempenho de diversos planejadores automáticos de
propósito geral. Mesmo sendo uma simplificação do problema
original, o PIPESWORLD se mostra um domínio bastante
desafiador para o estado da arte dos planejadores. É
demonstrado também que problemas de decisão derivados de
diversas configurações do Pipesworld são NP-Completos. A
segunda contribuição dessa tese é o arcabouço de software
PLANSIM. Este framework incorpora uma máquina de busca que
pode utilizar diversas estratégias, e define uma estrutura
que facilita a construção de planejadores automáticos
baseados em busca heurística direta que utilizam como
modelo do processo a ser planejado simuladores orientados
a eventos discretos. São apresentadas instanciações do
PLANSIM para a construção de planejadores para problemas
clássicos de como o das Torres de Hanoi e Blocksworld. A
terceira contribuição da tese é a instanciação do PLANSIM
para a construção de um planejador automático capaz de
tratar instâncias reais de planejamento de transporte em
oleodutos, denominado PLUMBER 05. A utilização de técnicas
de simulação discreta orientada a eventos para a
representação do modelo do sistema a ser planejado permite
que este seja bastante fiel ao problema original. Isto
somado ao uso do PLANSIM facilita a construção de
planejadores capazes de lidar com instâncias reais. / [en] Pipelines have an important role in oil and its
derivatives transportation,
since they are the most effective way to transport high
volumes through
long distances. The motivation for this work is that a non
negligible part
of the final price for those products are due to
transportation costs. Few
authors have addressed this problem, with most of the
previous work using
integer programming techniques. This work analyses the use
of Artificial
Intelligence techniques, discrete event simulators and
software frameworks
for building automated planners that are able to deal with
real-world oil
pipeline transportation instances. The first contribution
of this thesis is the
specification of a new planning domain called PIPESWORLD.
This domain
is inspired by the oil pipeline transportation problem,
and is defined
in PDDL. Due to its original structure, the PIPESWORLD
domain has
been incorporated to the 4th International Planning
Competition benchmark.
Even being a simplification of the original problem,
PIPESWORLD
instances in the benchmark are challenging to state of art
solvers. It is also
shown that decision problems based on PIPESWORLD
configurations are
NP-Hard. The second contribution of this thesis is the
PLANSIM opensource
framework. This framework incorporates a search engine
that may
use several different strategies, and defines a structure
that facilitates the
construction of automated planners based on heuristic
forward search that
use discrete event simulators as the model for the process
to be planned. The
third contribution of this thesis is a PLANSIM
instantiation that results in
an automated planner able to deal with real-world oil
pipeline transportation
instances, called PLUMBER 2. The use of discrete event
simulation
techniques for the model of the system to be planned
allows this model to
be very close to the original problem. This, in
conjunction with PLANSIM
usage, facilitates the construction of planners that are
able to cope with
real-world instances.
|
37 |
[en] ARTIFICIAL NEURAL NETWORKS APPLIED TO INTRUSION DETECTION ON TCP/IP NETWORKS / [pt] REDES NEURAIS ARTIFICIAIS APLICADAS À DETECÇÃO DE INTRUSÃO EM REDES TCP/IPRENATO MAIA SILVA 25 October 2005 (has links)
[pt] Ataques e intrusões são uma ameaça constante para empresas
e
organizações interconectadas através de redes de pacotes e
da Internet.
Ferramentas tradicionais de detecção de ataques e
intrusões dependem de
conhecimento prévio sobre as técnicas de ataque não sendo
capazes de detectar
novas técnicas de ataques. Este trabalho investiga a
aplicação de redes neurais
artificiais no auxílio à detecção de intrusão em redes de
pacotes TCP/IP.
Utilizando a capacidade de generalização das redes
neurais, espera-se que o
sistema detecte novos ataques mantendo uma alta taxa de
acertos. É empregado
também técnica de comitê de redes neurais especialistas
para obtenção de maior
precisão e menor taxa alarmes falsos. / [en] Computer attacks and intrusions poses significant threats
to companies and
organizations interconnected through packet networks and
the Internet. Most
current approaches to intrusion detection rely on previous
knowledge of attack
patterns and are not capable of detecting new intrusion
techniques. This work
presents the application of artificial neural networks as
a component of an
intrusion detection system. Exploring neural networks
generalization capabilities
the system should be able to detect new attack patterns
and sustain a high
detection rate. Neural networks ensembles are also used in
order to achieve higher
accuracy and lower false-positive rates.
|
38 |
[en] INTELLIGENT SYSTEM FOR WEB TEXTS / [pt] SISTEMAS INTELIGENTES PARA TEXTOS DA WEBFERNANDO HIDEO FUKUDA 18 October 2005 (has links)
[pt] Esta dissertação investigou a aplicação dos processos de
KDD (Knowledge Discovery in Databases) e técnicas de
inteligência artificial para a criação de uma ferramenta
de avaliação de textos da WEB de acordo com um determinado
perfil.
O trabalho, na área de sistemas de computação, teve como
objetivo o desenvolvimento de técnicas que em conjunto com
técnicas de inteligência computacional podem automatizar a
avaliação de textos através de uma ferramenta, bem como a
construção de um protótipo desta ferramenta.
As técnicas inéditas desenvolvidas nesta dissertação
tiveram como objetivo avaliar automaticamente textos
independente da língua utilizada nestes e sem o uso de
técnicas de PLN (Processador de Linguagem Natural).
Outro objetivo foi desenvolver este trabalho baseado em
alguns conceitos, ferramentas, formas de documentação
considerados em trabalhos anteriores como forma de dra
continuidade ao desenvolvimento científico.
O protótipo, SITEX - Sistema Inteligente para Textos WEB -
foi desenvolvido e módulos que permitem utilizar a
ferramenta que melhor se enquadre na solução de um
problema.
Um outro objetivo no desenvolvimento do protótipo foi a
utilização da linguagem C++, a qual é largamente utilizada
e conhecida entre os desenvolvedores de técnicas de
inteligência artificial, permitindo com isso a integração
e o desenvolvimento de outros módulos.
As técnicas foram desenvolvidas tendo também como objetivo
o tratamento de padrões da WEB, como o Protocolo TCP/IP,
as linguagens HTML, DHTML, Javascript, VBscript, entre
outros, o que permite a utilização destas na Internet,
Extranet ou localmente.
Os estudos de casos foram realizados com textos fornecidos
pela WEB através de inscrições em jornais on-line e
avaliados de acordo com três tipos de perfis.
Os perfis utilizados nos estudos de casos foram: economia,
esportes e informática.
Os resultados dos estudos de casos comprovam a validade
das técnicas descobertas e implementadas neste trabalho.
A comparação dos resultados do SITEX com os resultados do
TextAnalyst, produto de mercado para análise de texto da
Web baseado em inteligência computacional, comprovam a
qualidade das técnicas apresentadas nesta dissertação. / [en] This dissertation investigated the application of KDD´s
process and artificial intelligence techniques for the
development of a WEB text evaluation tool according to a
specific interest.
The work, in computing systems area, had as objective the
development of techniques together with computing
intelligence techniques to automate the texts evaluation
by a tool, as well the development of a prototype of this
tool.
The techniques developed in this dissertation had as
objective evaluate taext automatically with independence
of the language used and without using NLP (natural
Language Processing) techniques.
Another onjective was develop this work based on others
works as a way to continue the scientific development.
The prototype, SITEX - Intelligent System for WEB Texts -
was developed by modules which provides the condition to
choose the best tool to solve a problem.
Another objectiv on the development of the prototype was
to use the C++ language, which is largely used and well
known by artificial intelligence techniques developers,
providing in this way facilities for development and
integration of others modules.
The techniques was also developed with the objective for
WWB standards treatment, as the TCP/IP protocol, lamguages
as HTML, DHTML, javascript, Vbscript, and others, which
provides the usage of theses techniques in the Internet,
intranets, Extranets and locally.
The case studies werw based on WEB texts provided by on-
line newsletters subscriptions and evaluated according to
three types of interests.
The interests used in these case studies were: ecoonomy,
sports and computing.
The results found in this case studies shows the validity
of the techniques developed in this work.
The results os SITEX compared to the result of
TextAnalyst, a well known product in the market for Web
text analysis based on artificial intelligence, shows the
quality of the techniques discovered in this dissertation.
|
39 |
[en] MODELING AND OPTIMIZATION STRATEGIES IN SUGARCANE BAGASSE DELIGNIFICATION PROCESS / [pt] ESTRATÉGIAS DE MODELAGEM E OTIMIZAÇÃO APLICADAS AO PROCESSO DE DESLIGNIZAÇÃO DO BAGAÇO DA CANA-DE-AÇÚCARISABELLE CUNHA VALIM 07 January 2019 (has links)
[pt] O bagaço da cana-de-açúcar é uma biomassa vegetal que possui muito potencial
de uso devido aos seus três elementos estruturais: celulose, hemicelulose
e lignina. Para servir como matéria prima na produção de insumos, o bagaço
da cana-de-açúcar precisa passar por um processo de pré-tratamento. Nesse
estudo, duas metodologias para o processo de pré-tratamento do bagaço da
cana-de-açúcar foram utilizadas: a deslignização via peróxido de hidrogênio
(H2O2) e via dióxido de carbono supercrítico (ScCO2). Para o estudo utilizando
H2O2, foram desenvolvidos modelos a partir de planejamento experimental,
Algoritmos Genéticos (GA, do inglês Genetic Algorithms), Redes
Neurais Artificiais (RNA) e Neuro-Fuzzy (ANFIS). As variáveis independentes
foram temperatura (25 – 60 graus Celsius), concentração de H2O2 (2 – 15 por cento
m/v) e pH (10 – 13), tendo como resposta os teores de lignina residual e
oxidada no processo, através de análises de FT-IR e análise pelo método
de Klason. Para o estudo utilizando ScCO2 foram construídos modelos a
partir de RNA e ANFIS. As variáveis estudadas no processo foram: temperatura
(35 – 100 graus Celsius), pressão (75- 300 bar) e teor de etanol na solução de
co-solvente (0 – 100 graus Celsius). De modo geral, para os dois processos, os modelos
desenvolvidos consideram as variáveis independentes como sendo neurônios
na camada de entrada e as variáveis dependentes como sendo neurônios na
camada de saída. Todos os modelos neurais e ANFIS desenvolvidos neste
trabalho foram avaliados pelo coeficiente de correlação e índices de
erro (SSE, MSE e RMSE), além do número de parâmetros. Os resultados
mostraram que, dentre estas estratégias estudadas, os modelos neurais se
mostraram mais satisfatórios para predição das respostas do pré-tratamento
com H2O2, já que se encaixa nos índices de performance estipulados. O
mesmo ocorreu no modelo neural para predição do teor de lignina residual
no pré-tratamento com ScCO2. Para cada modelo polinomial e neural desenvolvido,
foi realizada a investigação das superfícies de respostas e das
curvas de contorno. Com esse recurso, foi possível a identificação dos melhores
pontos operacionais para os processos, visando a minimização dos
teores de lignina residual e oxidada na biomassa. / [en] Sugarcane bagasse is a plant biomass that has a great potential for use due
to its three structural elements: cellulose, hemicellulose and lignin. To serve
as raw material in the production of other products, sugarcane bagasse needs
to undergo a pre-treatment process. In this study, two methodologies for the
sugarcane bagasse pretreatment process were used: delignification via hydrogen
peroxide (H2O2) and via supercritical carbon dioxide (ScCO2). The
models for study the process with H2O2 were developed from experimental
planning, Genetic Algorithms (GA), Artificial Neural Networks (ANN) and
Neuro-Fuzzy (ANFIS). The independent variables were: temperature (25-
60 degrees Celsius), H2O2 concentration (2 - 15 percent m/v) and pH (10-13). The residual
and oxidized lignin contents in the process were evaluated from FT-IR and
Klason method analysis. The models for study the process with ScCO2 were
developed from RNA and ANFIS. The variables studied in the process were:
temperature (35-100 degrees Celsius), pressure (75-300 bar) and ethanol content in the
aqueous solution of co-solvent (0-100 percent). In general, for the two processes,
the developed models consider the independent variables to be neurons in
the input layer and the dependent variables to be neurons in the output
layer. All the neural and ANFIS models developed in this study were evaluated
by the correlation coefficient and error indexes (SSE, MSE and
RMSE), as well as the number of parameters. From the stipulated indices
of performance, among the results obtained by the different strategies, the
neural models were the most satisfactory for the prediction of pretreatment
responses with H2O2. The same occurred in the neural model for prediction
of the residual lignin content in the pre-treatment with ScCO2. Response
surfaces and the contour curves were investigated for each polynomial and
neural model developed. With this resource, it was possible to identify the
best operational points for the processes, pointing at minimizing the residual
and oxidized lignin contents in the biomass.
|
40 |
[en] MAS-SCHOOL E ASYNC: A METHOD AND A FRAMEWORK FOR BUILDING INTELLIGENT AGENTS / [pt] MAS-SCHOOL E ASYNC: UM MÉTODO E UM FRAMEWORK PARA CONSTRUÇÃO DE AGENTES INTELIGENTESJOSE ALBERTO RODRIGUES PEREIRA SARDINHA 08 July 2005 (has links)
[pt] Agentes de Software é uma tecnologia que permite criar
simuladores e
sistemas inteligentes que tomam decisões
automaticamente.
A primeira
contribuição dessa tese é o MAS-School, um método para
modelar e implementar
agentes de software inteligentes desde as primeiras
fases
de desenvolvimento.
Esse método também apresenta várias orientações de como
incluir aprendizado na
fase de design e implementação. O método apresenta no
final uma estratégia
incremental de desenvolvimento para permitir a avaliação
do desempenho das
técnicas de machine learning. A segunda contribuição
dessa
tese é o framework
ASYNC. O ASYNC é composto por um conjunto de ferramentas
de engenharia
de software para auxiliar a construção de sistemas
baseados em agentes
assíncronos, cooperativos e inteligentes. Esta tese
apresenta quatro estudos de
casos complexos desenvolvidos com agentes inteligentes
para exemplificar o uso
do método e framework. A primeira aplicação apresenta um
sistema baseado em
agentes para criar promoções em um mercado varejista
utilizando o conceito de
agregação de produtos. A segunda aplicação apresenta um
mercado virtual para
compra e venda de bens. A terceira aplicação é um
sistema
multi-agente
distribuído para um complexo cenário de procurement em
leilões simultâneos e
interdependentes. Essa aplicação participou do Trading
Agent Competition em
2004 e obteve a terceira colocação. A quarta aplicação é
um sistema multi-agente
para um Supply Chain Management. / [en] The agent technology is used to develop systems that
perform several
complex tasks. This thesis presents the MAS-School method
for modeling and
implementing intelligent agent-based systems. The method
presents a systematic
approach to support a disciplined introduction of machine
learning techniques in
multi-agent systems from an early stage of design. The
proposed approach
encompasses guidelines to both the design and
implementation phases of an
agent-based system. It is based on an incremental
development strategy that
largely relies on simulation and testing techniques. This
thesis also presents the
ASYNC framework that is composed of software engineering
tools for building
agent based system for asynchronous, cooperative and
intelligent agents. This
thesis presents four complex applications that used the
proposed method and
framework in the design and implementation phase. The
first case study presents
an application that discovers the most appealing offerings
for consumers in a retail
market. The second case study presents a virtual
marketplace for buying and
selling goods with automatic negotiation. The third case
study is a multi-agent
system for a complex procurement scenario with
interdependent and simultaneous
auctions. This system achieved the third place in the 2004
TAC Classic
competition. The fourth case study is a multi-agent system
for a PC manufacturer
scenario based on sourcing of components, manufacturing of
PC's and sales to
customers.
|
Page generated in 0.0335 seconds