• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 12
  • Tagged with
  • 80
  • 80
  • 77
  • 52
  • 26
  • 20
  • 17
  • 17
  • 14
  • 12
  • 11
  • 10
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

[pt] DESENVOLVIMENTO DE MODELOS MATEMÁTICOS PARA AVALIAÇÃO DE PROCESSOS CORROSIVOS EM PLACAS DE CIRCUITO IMPRESSO / [en] DEVELOPMENT OF MATHEMATICAL MODELS FOR THE EVALUATION OF CORROSION PROCESS IN THE PRINTED CIRCUIT BOARDS

TAMIRES PIMENTEL BEZERRA 24 June 2020 (has links)
[pt] O aumento do consumo de eletroeletrônicos e o desenvolvimento da tecnologia, proporcionou o surgimento de uma gama de produtos com diferentes funcionalidades, cada vez mais complexos e menores. As placas de circuito impresso (PCIs) são consideradas a parte principal dos dispositivos eletrônicos, sendo o cobre o seu componente elementar. O desenho e espessura das trilhas do circuito são determinantes para caracterizar a passagem de corrente elétrica nos equipamentos eletroeletrônicos e seu funcionamento está diretamente ligado a qualidade da confecção das trilhas do circuito. Este trabalho tem como objetivo estudar o processo de lixiviação do cobre, mediante a reação do ácido clorídrico, cloreto de cobre II e fluxo de ar. Além de investigar as condições experimentais ótimas do processo, que tem como principal característica a possibilidade de regeneração e reutilização da solução. Modelos para avaliar o efeito da concentração de ácido e fluxo de ar na corrosão das placas de circuito impresso foram desenvolvidos através da aplicação do planejamento experimental (pelo método clássico e por algoritmo genéticos em modelos polinomiais) e redes neurais artificiais. Visando encontrar as melhores condições experimentais para o sistema proposto, além de investigar a melhor técnica de predição do mesmo. Os resultados obtidos pelas previsões foram comparados com os resultados experimentais reais. As modelagens foram comparadas pela análise dos coeficientes de correlação (R2) e índices de erro (SSE, MSE e RMSE). Constatando-se que o modelo polinomial foi o mais adequado para prever a resposta. Através da investigação da superfície de resposta e curvas de contorno, foram identificadas as condições otimizadas para o processo. Das quais as concentrações ótimas de ácido clorídrico, cloreto de cobre II e fluxo de ar foram 1 mol.L-1, 0.3 mol.L-1 e 0.5 L/ min, respectivamente. / [en] The increased consumption of consumer electronics and the development of technology has led to the emergence of a range of products with different features, increasingly complex and smaller. Printed circuit boards (PCIs) are considered the main part of electronic devices, with copper being their elementary component. The design and thickness of the circuit tracks are crucial to characterize the passage of electric current in electronic equipment and its operation is directly linked to the quality of the circuit tracks. This work aims to study the copper leaching process through the reaction of hydrochloric acid, copper chloride II and airflow. In addition to investigating the optimal experimental conditions of the process, which has as its main feature the possibility of regeneration and reuse of the solution. Models to evaluate the effect of acid concentration and airflow on PCB corrosion were developed by applying experimental design (by the classical method and by the genetic algorithm in polynomial models) and artificial neural networks. Aiming to find the best experimental conditions for the proposed system, besides investigating the best prediction technique. The results obtained by the predictions were compared with the actual experimental results. The modeling was compared by analysis of correlation coefficients (R2) and error indices (SSE, MSE, and RMSE). Noting that the polynomial model was the most appropriate to predict the response. Through investigation of the response surface and contour curves, the optimized conditions for the process were identified. Of which the optimal concentrations of hydrochloric acid, copper chloride II and airflow were 1 mol.L-1, 0.3 mol.L-1 and 0.5 L / min, respectively.
32

[en] A PERVASIVE PLATFORM FOR INCLUSIVE EDUCATION SUPPORTED BY AI / [pt] UMA PLATAFORMA PERVASIVA PARA EDUCAÇÃO INCLUSIVA APOIADA POR IA

DJALMA LUCIO SOARES DA SILVA 18 June 2024 (has links)
[pt] A prevalência global de transtornos de aprendizagem, como dislexia, discalculia, autismo e desordens de atenção, atinge cerca de 10 por cento da população, conforme (BUTTERWORTH, 2018). No Brasil, a falta de um censo específico dificulta a estimativa precisa, mas estima-se que um número significativo de crianças enfrenta desafios de aprendizagem. Este contexto destaca a necessidade de soluções inclusivas, especialmente para auxiliar os professores do Atendimento Educacional Especializado (AEE) dos estudantes dos primeiros anos do Ensino Fundamental I. Esta pesquisa tem como objetivo desenvolver, validar e avaliar uma plataforma pervasiva baseada em tecnologias web. A plataforma tem como finalidade proporcionar uma infraestrutura para a criação e execução de atividades ludificadas, incorporando algoritmos de aprendizado de máquina e realidade estendida. O foco é direcionado a estudantes dos primeiros anos do Ensino Fundamental diagnosticadas com Transtorno do Espectro Autista (TEA) e Transtorno de Déficit de Atenção e Hiperatividade (TDAH). Além disso, busca-se alternativas de custo acessível para manter a plataforma alinhada ao contexto socioeconômico brasileiro. A pesquisa adotou a metodologia Design Science Research (DSR), que se baseia em ciclos interligados e iterativos, onde há a definição do problema, concepção, construção, avaliação e disseminação. Esse método orientou o desenvolvimento da plataforma, garantindo uma abordagem prática e aplicada ao contexto educacional inclusivo. Os resultados da pesquisa culminaram na criação de uma plataforma web abrangente e acessível, integrando algoritmos de aprendizado de máquina e realidade estendida. A plataforma permite aos professores do AEE a personalização de atividades ludificadas que atendam às necessidades específicas de estudantes com TEA e TDAH. A plataforma desenvolvida demonstra promissoras contribuições para a educação inclusiva, oferecendo recursos inovadores e acessíveis. Ao proporcionar uma ferramenta adaptável às demandas socioeconômicas brasileiras, a pesquisa busca contribuir com a igualdade de oportunidades educacionais para estudantes com diferentes necessidades de aprendizagem, o que é garantido por lei através da Lei Brasileira de Inclusão da Pessoa com Deficiência, Capítulo IV – Do Direito à Educação, Parágrafo Único, É dever do Estado, da família, da comunidade escolar e da sociedade assegurar educação de qualidade à pessoa com deficiência, colocando-a a salvo de toda forma de violência, negligência e discriminação. / [en] The global prevalence of learning disorders, such as dyslexia, dyscalculia, autism, and attention disorders, affects approximately 10 percent of the population, according to (BUTTERWORTH, 2018). In Brazil, the lack of a specific census makes precise estimation difficult, but it is estimated that a significant number of children face learning challenges. This context underscores the need for inclusive solutions, especially to assist teachers of students in the early years of Elementary School. This research aims to develop, validate, and evaluate a pervasive web-based platform. The platform aims to provide an infrastructure for the creation and execution of playful activities, incorporating machine learning algorithms and extended reality. The focus is on stundents in the early years of Elementary School diagnosed with Autism Spectrum Disorder (ASD) and Attention Deficit Hyperactivity Disorder (ADHD). Additionally, affordable alternatives are sought to keep the platform aligned with the Brazilian socioeconomic context. The research adopted the Design Science Research (DSR) methodology, which is based on interconnected and iterative cycles, including problem definition, conception, construction, evaluation, and dissemination. This method guided the development of the platform, ensuring a practical and applied approach to the inclusive educational context. The research results led to the creation of a comprehensive and accessible web platform, integrating machine learning algorithms and extended reality. The platform enables teachers to customize playful activities to meet the specific needs of students with ASD and ADHD. The developed platform shows promising contributions to inclusive education, offering innovative and accessible resources. By providing a tool adaptable to Brazilian socioeconomic demands, the research seeks to contribute equal educational opportunities for students with different learning needs, as guaranteed by law through the Brazilian Law of Inclusion of Persons with Disabilities, Chapter IV – The Right to Education, Sole Paragraph, It is the duty of the State, the family, the school community, and society to ensure quality education for people with disabilities, protecting them from all forms of violence, neglect, and discrimination.
33

[en] PSO+: A LINEAR AND NONLINEAR CONSTRAINTS-HANDLING PARTICLE SWARM OPTIMIZATION / [pt] PSO+: ALGORITMO COM BASE EM ENXAME DE PARTÍCULAS PARA PROBLEMAS COM RESTRIÇÕES LINEARES E NÃO LINEARES

MANOELA RABELLO KOHLER 15 August 2019 (has links)
[pt] O algoritmo de otimização por enxame de partículas (PSO, do inglês Particle Swarm Optimization) é uma meta-heurística baseada em populações de indivíduos na qual os candidatos à solução evoluem através da simulação de um modelo simplificado de adaptação social. Juntando robustez, eficiência e simplicidade, o PSO tem adquirido grande popularidade. São reportadas muitas aplicações bem-sucedidas do PSO nas quais este algoritmo demonstrou ter vantagens sobre outras meta-heurísticas bem estabelecidas baseadas em populações de indivíduos. Algoritmos modificados de PSO já foram propostos para resolver problemas de otimização com restrições de domínio, lineares e não lineares. A grande maioria desses algoritmos utilizam métodos de penalização, que possuem, em geral, inúmeras limitações, como por exemplo: (i) cuidado adicional ao se determinar a penalidade apropriada para cada problema, pois deve-se manter o equilíbrio entre a obtenção de soluções válidas e a busca pelo ótimo; (ii) supõem que todas as soluções devem ser avaliadas. Outros algoritmos que utilizam otimização multi-objetivo para tratar problemas restritos enfrentam o problema de não haver garantia de se encontrar soluções válidas. Os algoritmos PSO propostos até hoje que lidam com restrições, de forma a garantir soluções válidas utilizando operadores de viabilidade de soluções e de forma a não necessitar de avaliação de soluções inválidas, ou somente tratam restrições de domínio controlando a velocidade de deslocamento de partículas no enxame, ou o fazem de forma ineficiente, reinicializando aleatoriamente cada partícula inválida do enxame, o que pode tornar inviável a otimização de determinados problemas. Este trabalho apresenta um novo algoritmo de otimização por enxame de partículas, denominado PSO+, capaz de resolver problemas com restrições lineares e não lineares de forma a solucionar essas deficiências. A modelagem do algoritmo agrega seis diferentes capacidades para resolver problemas de otimização com restrições: (i) redirecionamento aritmético de validade de partículas; (ii) dois enxames de partículas, onde cada enxame tem um papel específico na otimização do problema; (iii) um novo método de atualização de partículas para inserir diversidade no enxame e melhorar a cobertura do espaço de busca, permitindo que a borda do espaço de busca válido seja devidamente explorada – o que é especialmente conveniente quando o problema a ser otimizado envolve restrições ativas no ótimo ou próximas do ótimo; (iv) duas heurísticas de criação da população inicial do enxame com o objetivo de acelerar a inicialização das partículas, facilitar a geração da população inicial válida e garantir diversidade no ponto de partida do processo de otimização; (v) topologia de vizinhança, denominada vizinhança de agrupamento aleatório coordenado para minimizar o problema de convergência prematura da otimização; (vi) módulo de transformação de restrições de igualdade em restrições de desigualdade. O algoritmo foi testado em vinte e quatro funções benchmarks – criadas e propostas em uma competição de algoritmos de otimização –, assim como em um problema real de otimização de alocação de poços em um reservatório de petróleo. Os resultados experimentais mostram que o novo algoritmo é competitivo, uma vez que aumenta a eficiência do PSO e a velocidade de convergência. / [en] The Particle Swarm Optimization (PSO) algorithm is a metaheuristic based on populations of individuals in which solution candidates evolve through simulation of a simplified model of social adaptation. By aggregating robustness, efficiency and simplicity, PSO has gained great popularity. Many successful applications of PSO are reported in which this algorithm has demonstrated advantages over other well-established metaheuristics based on populations of individuals. Modified PSO algorithms have been proposed to solve optimization problems with domain, linear and nonlinear constraints; The great majority of these algorithms make use of penalty methods, which have, in general, numerous limitations, such as: (i) additional care in defining the appropriate penalty for each problem, since a balance must be maintained between obtaining valid solutions and the searching for an optimal solution; (ii) they assume all solutions must be evaluated. Other algorithms that use multi-objective optimization to deal with constrained problems face the problem of not being able to guarantee finding feasible solutions. The proposed PSO algorithms up to this date that deal with constraints, in order to guarantee valid solutions using feasibility operators and not requiring the evaluation of infeasible solutions, only treat domain constraints by controlling the velocity of particle displacement in the swarm, or do so inefficiently by randomly resetting each infeasible particle, which may make it infeasible to optimize certain problems. This work presents a new particle swarm optimization algorithm, called PSO+, capable of solving problems with linear and nonlinear constraints in order to solve these deficiencies. The modeling of the algorithm has added six different capabilities to solve constrained optimization problems: (i) arithmetic redirection to ensure particle feasibility; (ii) two particle swarms, where each swarm has a specific role in the optimization the problem; (iii) a new particle updating method to insert diversity into the swarm and improve the coverage of the search space, allowing its edges to be properly exploited – which is especially convenient when the problem to be optimized involves active constraints at the optimum solution; (iv) two heuristics to initialize the swarm in order to accelerate and facilitate the initialization of the feasible initial population and guarantee diversity at the starting point of the optimization process; (v) neighborhood topology, called coordinated random clusters neighborhood to minimize optimization premature convergence problem; (vi) transformation of equality constraints into inequality constraints. The algorithm was tested for twenty-four benchmark functions – created and proposed for an optimization competition – as well as in a real optimization problem of well allocation in an oil reservoir. The experimental results show that the new algorithm is competitive, since it increases the efficiency of the PSO and the speed of convergence.
34

[en] ARTIFICIAL IMMUNE SYSTEMS APPLIED TO FAULT DETECTION / [pt] SISTEMAS IMUNOLÓGICOS ARTIFICIAIS APLICADOS À DETECÇÃO DE FALHAS

JORGE LUIS M DO AMARAL 03 May 2006 (has links)
[pt] Este trabalho investiga métodos de detecção de falhas baseados em sistemas imunológicos artificiais, especificamente aqueles baseados no algoritmo de seleção negativa (NSA) e em outras técnicas de reconhecimento próprio/nãopróprio. Inicialmente, foi proposto um esquema de representação baseado em hiperesferas com centros e raios variáveis e três modelos capazes de gerar detectores, com esta representação, de forma eficiente. O primeiro modelo utiliza algoritmos genéticos onde cada gene do cromossomo contém um índice para um ponto de uma distribuição quasi-aleatória que servirá como centro do detector e uma função decodificadora responsável por determinar os raios apropriados. A aptidão do cromossomo é dada por uma estimativa do volume coberto através uma integral de Monte Carlo. O segundo modelo utiliza o particionamento Quadtree para gerar o posicionamento dos detectores e o valor dos raios. Este modelo pode realizar o particionamento a partir de uma função de detecção ou através de divisões recursivas de um detector inicial que ocupa todo o espaço. O terceiro modelo é inspirado nas redes imunológicas. Neste modelo, as células B representam os detectores e a rede formada por eles dá a posição e o raio de cada detector. Experimentos com dados sintéticos e reais demonstram a capacidade dos algoritmos propostos e que eles apresentam melhorias nos aspectos de escalabilidade e desempenho na detecção de falhas. / [en] This work investigates fault detection methods based on Artificial Immune Systems, specifically the negative selection algorithm (NSA) and other self/nonself recognition techniques. First, there was proposed a representation scheme based on hyperspheres with variable center and radius, and three models, which are very capable to generate detectors, based on that representation scheme, in an effective way. The first model employs Genetic Algorithms where each chromosome gene represents an index to a point in a quasi- random distribution, that will serve as a detector center, a decoder function will be responsible to determine the appropriate radius. The chromosome fitness is given by a valuation of the covered volume, which is calculated through a Monte Carlo integral. The second model uses the Quadtree space partition technique to generate the detectors positions and their radius. The space partition could be done by using a detection function or by recursive divisions of an initial detector that occupies the whole space. In third model, inspired on immune networks, the B cells represent the detectors and the network that is established by them gives the location and radius of each detector. Experiments with syntetic and real data show that the proposed algorithms improve scalability and perform better in fault detection.
35

[en] POSITIONING AND CALIBRATION OF A UNDERWATER ROBOTIC MANIPULATOR WITH USE OF COMPUTACIONAL VISION / [pt] POSICIONAMENTO E CALIBRAÇÃO DE UM MANIPULADOR ROBÓTICO SUBMARINO COM USO DE VISÃO COMPUTACIONAL

MIGUEL ANGELO GASPAR PINTO 22 November 2006 (has links)
[pt] Muitos dos robôs industriais utilizados atualmente seguem uma programação baseada em rastreamento de trajetórias. O robô é guiado por um operador humano para localizações fixas onde ele atuará. Esses movimentos são, então, gravados na linguagem de programação residente no controlador do robô, de forma que este seja capaz de repetir as tarefas. Este método pode ser suficiente para, por exemplo, movimentar objetos entre locais fixos. Como o robô está treinado para se movimentar em posições fixas, todas as partes do manipulador, bem como todos os objetos que serão manipulados devem estar em posições bem definidas, ou uma nova programação deverá ser feita. Outra metodologia é a de teleoperação, na qual a movimentação de sistemas robóticos é executada em modo manual, no qual o operador trabalha em uma arquitetura mestre-escravo controlando direta e continuamente as posições do manipulador. Para essas tarefas é necessário apenas que o sistema possua um alto grau de repetibilidade, uma vez que quaisquer erros absolutos de posicionamento são visualmente compensados pelo operador humano. Porém em certas aplicações robóticas essas técnicas de programação de manipuladores são impraticáveis ou insatisfatórias. A primeira vem a ser impraticável no caso de alta variabilidade do ambiente onde a tarefa está sendo feita. O segundo método atribui ao robô uma precisão absoluta baixa, devido a própria deficiência da percepção humana. Este trabalho segue pelas tendências modernas de automação, as quais vêm colocando uma crescente ênfase em robôs guiados por sensores e programação off-line, automatizando total ou parcialmente muitas das tarefas a serem executadas. Sensores, como câmeras ligadas a um sistema de visão computacional, detectam diferenças entre a posição real do manipulador e a posição desejada. Estas diferenças são então enviadas para os controladores, para que estes corrijam a trajetória pré-programada. Os comandos de movimento do manipulador são programados off-line por um sistema de CAD, sem a necessidade de ativar o robô, permitindo maior velocidade em sua validação e na resolução de problemas. Apresentam-se neste trabalho metodologias e técnicas para o posicionamento do manipulador utilizando-se, para tanto, câmeras em sua extremidade. Uma vez posicionado o manipulador em relação ao espaço de coordenadas do mundo, é possível deslocá-lo com segurança e precisão em sua área de trabalho, o que é imprescindível para automatização de tarefas complexas. O trabalho está concentrado nas aplicações de técnicas de visão computacional à calibração de manipuladores. Como estudo de caso utiliza-se uma situação real, de um manipulador submarino de seis graus de liberdade, para intervenções submarinas em plataformas de petróleo. Abordam-se a calibração de câmeras, reconhecimento de padrões, correlação de padrões em imagens distintas, estereoscopia, cinemática direta e inversa de manipuladores e a união de todas estas técnicas para o posicionamento do manipulador em sua área de trabalho. / [en] Many of today´s industrial robots are still programmed to follow trajectories. The robot is guided by a human operator to the desired fixed application locations. These motions are recorded and are later edited, within the robotic language residing in the robot controller, and played back, for the robot to be able to repetitively perform its task. This methodology is enough to move objects between fixed locations. As the robot is trained to move within fixed positions, all manipulator parts, as well as all the objects which will be manipulated need to be in well defined positions, otherwise another program is needed. Another methodology would be teleoperation, where the robotic system`s movements are executed in manual mode, having the operator working in a master-slave architecture, controlling direct and continuously the positions of the robot. For these tasks it is needed only for the system to have enough repeatability, once any absolute positioning errors can be visually compensated by the human operator. On the other side, in certain robotic applications, both programming techniques are either not practical or inefficient. The first, where the human operator teaches the trajectories to the robot, is not possible when there is high variance in the environment where the task is being performed. The second method, the teleoperation, has low absolute accuracy, due the deficiencies of human perception. This project follows modern tendencies of automation, which give increasing emphasis on robots guided by sensors and off-line programming, partially or completely automating many of the tasks to be executed. Sensors such as cameras eloed to a system of computational vision detect differences between the actual and desired position of the manipulator. This information is sent to controllers to correct the pre-programated trajectory. The manipulator movement commands are programmed off-line by a CAD system, without need even to turn on the robot, allowing for greatest speed on its validation, as well as problem solving. This work presents methodologies and techniques which allow the precise positioning of the manipulator using cameras in its end-effector. Once it is positioned in relation with the world frame, it is possible to move the manipulator with safety and precision its work area, as is needed for automation of complex tasks. This work is focused on computational vision techniques applied for manipulator calibration. It is based on a real case of a subsea manipulator of six degrees of freedom, used for underwater interventions in oil exploring platforms. The subjects treated in this work include camera calibration, pattern recognition, position tracking, stereopsis, direct and inverse manipulator kinematics and the union of all techniques for manipulator positioning in the work area.
36

[en] PIPELINE TRANSPORTATION PLANNERS / [pt] PLANEJADORES PARA TRANSPORTE EM POLIDUTOS

FREDERICO DOS SANTOS LIPORACE 20 April 2006 (has links)
[pt] Oleodutos têm um papel importante no transporte de petróleo e de seus derivados, pois são a maneira mais eficaz de transportar grandes volumes por longas distâncias. A motivação deste trabalho é que uma parte não negligenciável do preço final de um derivado de petróleo é influenciada pelo custo de transporte. Apesar disso, até onde sabemos, apenas alguns autores trabalharam neste problema específico, a maioria utilizando técnicas de programação inteira. Este trabalho analisa a utilização de técnicas de inteligência artificial, arcabouços de software e simulação discreta orientada a eventos para a construção de planejadores automáticos capazes de lidar com instâncias reais de problemas de transporte em oleodutos. A primeira contribuição dessa tese é a especificação de um novo domínio para problemas de planejamento, denominado PIPESWORLD. Este domínio é inspirado no problema de transporte em oleodutos e especificado em PDDL. Por sua estrutura original, ele foi incorporado ao benchmark oficial da 4th International Planner Competition, evento bi-anual que compara o desempenho de diversos planejadores automáticos de propósito geral. Mesmo sendo uma simplificação do problema original, o PIPESWORLD se mostra um domínio bastante desafiador para o estado da arte dos planejadores. É demonstrado também que problemas de decisão derivados de diversas configurações do Pipesworld são NP-Completos. A segunda contribuição dessa tese é o arcabouço de software PLANSIM. Este framework incorpora uma máquina de busca que pode utilizar diversas estratégias, e define uma estrutura que facilita a construção de planejadores automáticos baseados em busca heurística direta que utilizam como modelo do processo a ser planejado simuladores orientados a eventos discretos. São apresentadas instanciações do PLANSIM para a construção de planejadores para problemas clássicos de como o das Torres de Hanoi e Blocksworld. A terceira contribuição da tese é a instanciação do PLANSIM para a construção de um planejador automático capaz de tratar instâncias reais de planejamento de transporte em oleodutos, denominado PLUMBER 05. A utilização de técnicas de simulação discreta orientada a eventos para a representação do modelo do sistema a ser planejado permite que este seja bastante fiel ao problema original. Isto somado ao uso do PLANSIM facilita a construção de planejadores capazes de lidar com instâncias reais. / [en] Pipelines have an important role in oil and its derivatives transportation, since they are the most effective way to transport high volumes through long distances. The motivation for this work is that a non negligible part of the final price for those products are due to transportation costs. Few authors have addressed this problem, with most of the previous work using integer programming techniques. This work analyses the use of Artificial Intelligence techniques, discrete event simulators and software frameworks for building automated planners that are able to deal with real-world oil pipeline transportation instances. The first contribution of this thesis is the specification of a new planning domain called PIPESWORLD. This domain is inspired by the oil pipeline transportation problem, and is defined in PDDL. Due to its original structure, the PIPESWORLD domain has been incorporated to the 4th International Planning Competition benchmark. Even being a simplification of the original problem, PIPESWORLD instances in the benchmark are challenging to state of art solvers. It is also shown that decision problems based on PIPESWORLD configurations are NP-Hard. The second contribution of this thesis is the PLANSIM opensource framework. This framework incorporates a search engine that may use several different strategies, and defines a structure that facilitates the construction of automated planners based on heuristic forward search that use discrete event simulators as the model for the process to be planned. The third contribution of this thesis is a PLANSIM instantiation that results in an automated planner able to deal with real-world oil pipeline transportation instances, called PLUMBER 2. The use of discrete event simulation techniques for the model of the system to be planned allows this model to be very close to the original problem. This, in conjunction with PLANSIM usage, facilitates the construction of planners that are able to cope with real-world instances.
37

[en] ARTIFICIAL NEURAL NETWORKS APPLIED TO INTRUSION DETECTION ON TCP/IP NETWORKS / [pt] REDES NEURAIS ARTIFICIAIS APLICADAS À DETECÇÃO DE INTRUSÃO EM REDES TCP/IP

RENATO MAIA SILVA 25 October 2005 (has links)
[pt] Ataques e intrusões são uma ameaça constante para empresas e organizações interconectadas através de redes de pacotes e da Internet. Ferramentas tradicionais de detecção de ataques e intrusões dependem de conhecimento prévio sobre as técnicas de ataque não sendo capazes de detectar novas técnicas de ataques. Este trabalho investiga a aplicação de redes neurais artificiais no auxílio à detecção de intrusão em redes de pacotes TCP/IP. Utilizando a capacidade de generalização das redes neurais, espera-se que o sistema detecte novos ataques mantendo uma alta taxa de acertos. É empregado também técnica de comitê de redes neurais especialistas para obtenção de maior precisão e menor taxa alarmes falsos. / [en] Computer attacks and intrusions poses significant threats to companies and organizations interconnected through packet networks and the Internet. Most current approaches to intrusion detection rely on previous knowledge of attack patterns and are not capable of detecting new intrusion techniques. This work presents the application of artificial neural networks as a component of an intrusion detection system. Exploring neural networks generalization capabilities the system should be able to detect new attack patterns and sustain a high detection rate. Neural networks ensembles are also used in order to achieve higher accuracy and lower false-positive rates.
38

[en] INTELLIGENT SYSTEM FOR WEB TEXTS / [pt] SISTEMAS INTELIGENTES PARA TEXTOS DA WEB

FERNANDO HIDEO FUKUDA 18 October 2005 (has links)
[pt] Esta dissertação investigou a aplicação dos processos de KDD (Knowledge Discovery in Databases) e técnicas de inteligência artificial para a criação de uma ferramenta de avaliação de textos da WEB de acordo com um determinado perfil. O trabalho, na área de sistemas de computação, teve como objetivo o desenvolvimento de técnicas que em conjunto com técnicas de inteligência computacional podem automatizar a avaliação de textos através de uma ferramenta, bem como a construção de um protótipo desta ferramenta. As técnicas inéditas desenvolvidas nesta dissertação tiveram como objetivo avaliar automaticamente textos independente da língua utilizada nestes e sem o uso de técnicas de PLN (Processador de Linguagem Natural). Outro objetivo foi desenvolver este trabalho baseado em alguns conceitos, ferramentas, formas de documentação considerados em trabalhos anteriores como forma de dra continuidade ao desenvolvimento científico. O protótipo, SITEX - Sistema Inteligente para Textos WEB - foi desenvolvido e módulos que permitem utilizar a ferramenta que melhor se enquadre na solução de um problema. Um outro objetivo no desenvolvimento do protótipo foi a utilização da linguagem C++, a qual é largamente utilizada e conhecida entre os desenvolvedores de técnicas de inteligência artificial, permitindo com isso a integração e o desenvolvimento de outros módulos. As técnicas foram desenvolvidas tendo também como objetivo o tratamento de padrões da WEB, como o Protocolo TCP/IP, as linguagens HTML, DHTML, Javascript, VBscript, entre outros, o que permite a utilização destas na Internet, Extranet ou localmente. Os estudos de casos foram realizados com textos fornecidos pela WEB através de inscrições em jornais on-line e avaliados de acordo com três tipos de perfis. Os perfis utilizados nos estudos de casos foram: economia, esportes e informática. Os resultados dos estudos de casos comprovam a validade das técnicas descobertas e implementadas neste trabalho. A comparação dos resultados do SITEX com os resultados do TextAnalyst, produto de mercado para análise de texto da Web baseado em inteligência computacional, comprovam a qualidade das técnicas apresentadas nesta dissertação. / [en] This dissertation investigated the application of KDD´s process and artificial intelligence techniques for the development of a WEB text evaluation tool according to a specific interest. The work, in computing systems area, had as objective the development of techniques together with computing intelligence techniques to automate the texts evaluation by a tool, as well the development of a prototype of this tool. The techniques developed in this dissertation had as objective evaluate taext automatically with independence of the language used and without using NLP (natural Language Processing) techniques. Another onjective was develop this work based on others works as a way to continue the scientific development. The prototype, SITEX - Intelligent System for WEB Texts - was developed by modules which provides the condition to choose the best tool to solve a problem. Another objectiv on the development of the prototype was to use the C++ language, which is largely used and well known by artificial intelligence techniques developers, providing in this way facilities for development and integration of others modules. The techniques was also developed with the objective for WWB standards treatment, as the TCP/IP protocol, lamguages as HTML, DHTML, javascript, Vbscript, and others, which provides the usage of theses techniques in the Internet, intranets, Extranets and locally. The case studies werw based on WEB texts provided by on- line newsletters subscriptions and evaluated according to three types of interests. The interests used in these case studies were: ecoonomy, sports and computing. The results found in this case studies shows the validity of the techniques developed in this work. The results os SITEX compared to the result of TextAnalyst, a well known product in the market for Web text analysis based on artificial intelligence, shows the quality of the techniques discovered in this dissertation.
39

[en] MODELING AND OPTIMIZATION STRATEGIES IN SUGARCANE BAGASSE DELIGNIFICATION PROCESS / [pt] ESTRATÉGIAS DE MODELAGEM E OTIMIZAÇÃO APLICADAS AO PROCESSO DE DESLIGNIZAÇÃO DO BAGAÇO DA CANA-DE-AÇÚCAR

ISABELLE CUNHA VALIM 07 January 2019 (has links)
[pt] O bagaço da cana-de-açúcar é uma biomassa vegetal que possui muito potencial de uso devido aos seus três elementos estruturais: celulose, hemicelulose e lignina. Para servir como matéria prima na produção de insumos, o bagaço da cana-de-açúcar precisa passar por um processo de pré-tratamento. Nesse estudo, duas metodologias para o processo de pré-tratamento do bagaço da cana-de-açúcar foram utilizadas: a deslignização via peróxido de hidrogênio (H2O2) e via dióxido de carbono supercrítico (ScCO2). Para o estudo utilizando H2O2, foram desenvolvidos modelos a partir de planejamento experimental, Algoritmos Genéticos (GA, do inglês Genetic Algorithms), Redes Neurais Artificiais (RNA) e Neuro-Fuzzy (ANFIS). As variáveis independentes foram temperatura (25 – 60 graus Celsius), concentração de H2O2 (2 – 15 por cento m/v) e pH (10 – 13), tendo como resposta os teores de lignina residual e oxidada no processo, através de análises de FT-IR e análise pelo método de Klason. Para o estudo utilizando ScCO2 foram construídos modelos a partir de RNA e ANFIS. As variáveis estudadas no processo foram: temperatura (35 – 100 graus Celsius), pressão (75- 300 bar) e teor de etanol na solução de co-solvente (0 – 100 graus Celsius). De modo geral, para os dois processos, os modelos desenvolvidos consideram as variáveis independentes como sendo neurônios na camada de entrada e as variáveis dependentes como sendo neurônios na camada de saída. Todos os modelos neurais e ANFIS desenvolvidos neste trabalho foram avaliados pelo coeficiente de correlação e índices de erro (SSE, MSE e RMSE), além do número de parâmetros. Os resultados mostraram que, dentre estas estratégias estudadas, os modelos neurais se mostraram mais satisfatórios para predição das respostas do pré-tratamento com H2O2, já que se encaixa nos índices de performance estipulados. O mesmo ocorreu no modelo neural para predição do teor de lignina residual no pré-tratamento com ScCO2. Para cada modelo polinomial e neural desenvolvido, foi realizada a investigação das superfícies de respostas e das curvas de contorno. Com esse recurso, foi possível a identificação dos melhores pontos operacionais para os processos, visando a minimização dos teores de lignina residual e oxidada na biomassa. / [en] Sugarcane bagasse is a plant biomass that has a great potential for use due to its three structural elements: cellulose, hemicellulose and lignin. To serve as raw material in the production of other products, sugarcane bagasse needs to undergo a pre-treatment process. In this study, two methodologies for the sugarcane bagasse pretreatment process were used: delignification via hydrogen peroxide (H2O2) and via supercritical carbon dioxide (ScCO2). The models for study the process with H2O2 were developed from experimental planning, Genetic Algorithms (GA), Artificial Neural Networks (ANN) and Neuro-Fuzzy (ANFIS). The independent variables were: temperature (25- 60 degrees Celsius), H2O2 concentration (2 - 15 percent m/v) and pH (10-13). The residual and oxidized lignin contents in the process were evaluated from FT-IR and Klason method analysis. The models for study the process with ScCO2 were developed from RNA and ANFIS. The variables studied in the process were: temperature (35-100 degrees Celsius), pressure (75-300 bar) and ethanol content in the aqueous solution of co-solvent (0-100 percent). In general, for the two processes, the developed models consider the independent variables to be neurons in the input layer and the dependent variables to be neurons in the output layer. All the neural and ANFIS models developed in this study were evaluated by the correlation coefficient and error indexes (SSE, MSE and RMSE), as well as the number of parameters. From the stipulated indices of performance, among the results obtained by the different strategies, the neural models were the most satisfactory for the prediction of pretreatment responses with H2O2. The same occurred in the neural model for prediction of the residual lignin content in the pre-treatment with ScCO2. Response surfaces and the contour curves were investigated for each polynomial and neural model developed. With this resource, it was possible to identify the best operational points for the processes, pointing at minimizing the residual and oxidized lignin contents in the biomass.
40

[en] MAS-SCHOOL E ASYNC: A METHOD AND A FRAMEWORK FOR BUILDING INTELLIGENT AGENTS / [pt] MAS-SCHOOL E ASYNC: UM MÉTODO E UM FRAMEWORK PARA CONSTRUÇÃO DE AGENTES INTELIGENTES

JOSE ALBERTO RODRIGUES PEREIRA SARDINHA 08 July 2005 (has links)
[pt] Agentes de Software é uma tecnologia que permite criar simuladores e sistemas inteligentes que tomam decisões automaticamente. A primeira contribuição dessa tese é o MAS-School, um método para modelar e implementar agentes de software inteligentes desde as primeiras fases de desenvolvimento. Esse método também apresenta várias orientações de como incluir aprendizado na fase de design e implementação. O método apresenta no final uma estratégia incremental de desenvolvimento para permitir a avaliação do desempenho das técnicas de machine learning. A segunda contribuição dessa tese é o framework ASYNC. O ASYNC é composto por um conjunto de ferramentas de engenharia de software para auxiliar a construção de sistemas baseados em agentes assíncronos, cooperativos e inteligentes. Esta tese apresenta quatro estudos de casos complexos desenvolvidos com agentes inteligentes para exemplificar o uso do método e framework. A primeira aplicação apresenta um sistema baseado em agentes para criar promoções em um mercado varejista utilizando o conceito de agregação de produtos. A segunda aplicação apresenta um mercado virtual para compra e venda de bens. A terceira aplicação é um sistema multi-agente distribuído para um complexo cenário de procurement em leilões simultâneos e interdependentes. Essa aplicação participou do Trading Agent Competition em 2004 e obteve a terceira colocação. A quarta aplicação é um sistema multi-agente para um Supply Chain Management. / [en] The agent technology is used to develop systems that perform several complex tasks. This thesis presents the MAS-School method for modeling and implementing intelligent agent-based systems. The method presents a systematic approach to support a disciplined introduction of machine learning techniques in multi-agent systems from an early stage of design. The proposed approach encompasses guidelines to both the design and implementation phases of an agent-based system. It is based on an incremental development strategy that largely relies on simulation and testing techniques. This thesis also presents the ASYNC framework that is composed of software engineering tools for building agent based system for asynchronous, cooperative and intelligent agents. This thesis presents four complex applications that used the proposed method and framework in the design and implementation phase. The first case study presents an application that discovers the most appealing offerings for consumers in a retail market. The second case study presents a virtual marketplace for buying and selling goods with automatic negotiation. The third case study is a multi-agent system for a complex procurement scenario with interdependent and simultaneous auctions. This system achieved the third place in the 2004 TAC Classic competition. The fourth case study is a multi-agent system for a PC manufacturer scenario based on sourcing of components, manufacturing of PC's and sales to customers.

Page generated in 0.0335 seconds