• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 9
  • Tagged with
  • 44
  • 44
  • 44
  • 43
  • 10
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] MODELING AND OPTIMIZATION STRATEGIES IN SUGARCANE BAGASSE DELIGNIFICATION PROCESS / [pt] ESTRATÉGIAS DE MODELAGEM E OTIMIZAÇÃO APLICADAS AO PROCESSO DE DESLIGNIZAÇÃO DO BAGAÇO DA CANA-DE-AÇÚCAR

ISABELLE CUNHA VALIM 07 January 2019 (has links)
[pt] O bagaço da cana-de-açúcar é uma biomassa vegetal que possui muito potencial de uso devido aos seus três elementos estruturais: celulose, hemicelulose e lignina. Para servir como matéria prima na produção de insumos, o bagaço da cana-de-açúcar precisa passar por um processo de pré-tratamento. Nesse estudo, duas metodologias para o processo de pré-tratamento do bagaço da cana-de-açúcar foram utilizadas: a deslignização via peróxido de hidrogênio (H2O2) e via dióxido de carbono supercrítico (ScCO2). Para o estudo utilizando H2O2, foram desenvolvidos modelos a partir de planejamento experimental, Algoritmos Genéticos (GA, do inglês Genetic Algorithms), Redes Neurais Artificiais (RNA) e Neuro-Fuzzy (ANFIS). As variáveis independentes foram temperatura (25 – 60 graus Celsius), concentração de H2O2 (2 – 15 por cento m/v) e pH (10 – 13), tendo como resposta os teores de lignina residual e oxidada no processo, através de análises de FT-IR e análise pelo método de Klason. Para o estudo utilizando ScCO2 foram construídos modelos a partir de RNA e ANFIS. As variáveis estudadas no processo foram: temperatura (35 – 100 graus Celsius), pressão (75- 300 bar) e teor de etanol na solução de co-solvente (0 – 100 graus Celsius). De modo geral, para os dois processos, os modelos desenvolvidos consideram as variáveis independentes como sendo neurônios na camada de entrada e as variáveis dependentes como sendo neurônios na camada de saída. Todos os modelos neurais e ANFIS desenvolvidos neste trabalho foram avaliados pelo coeficiente de correlação e índices de erro (SSE, MSE e RMSE), além do número de parâmetros. Os resultados mostraram que, dentre estas estratégias estudadas, os modelos neurais se mostraram mais satisfatórios para predição das respostas do pré-tratamento com H2O2, já que se encaixa nos índices de performance estipulados. O mesmo ocorreu no modelo neural para predição do teor de lignina residual no pré-tratamento com ScCO2. Para cada modelo polinomial e neural desenvolvido, foi realizada a investigação das superfícies de respostas e das curvas de contorno. Com esse recurso, foi possível a identificação dos melhores pontos operacionais para os processos, visando a minimização dos teores de lignina residual e oxidada na biomassa. / [en] Sugarcane bagasse is a plant biomass that has a great potential for use due to its three structural elements: cellulose, hemicellulose and lignin. To serve as raw material in the production of other products, sugarcane bagasse needs to undergo a pre-treatment process. In this study, two methodologies for the sugarcane bagasse pretreatment process were used: delignification via hydrogen peroxide (H2O2) and via supercritical carbon dioxide (ScCO2). The models for study the process with H2O2 were developed from experimental planning, Genetic Algorithms (GA), Artificial Neural Networks (ANN) and Neuro-Fuzzy (ANFIS). The independent variables were: temperature (25- 60 degrees Celsius), H2O2 concentration (2 - 15 percent m/v) and pH (10-13). The residual and oxidized lignin contents in the process were evaluated from FT-IR and Klason method analysis. The models for study the process with ScCO2 were developed from RNA and ANFIS. The variables studied in the process were: temperature (35-100 degrees Celsius), pressure (75-300 bar) and ethanol content in the aqueous solution of co-solvent (0-100 percent). In general, for the two processes, the developed models consider the independent variables to be neurons in the input layer and the dependent variables to be neurons in the output layer. All the neural and ANFIS models developed in this study were evaluated by the correlation coefficient and error indexes (SSE, MSE and RMSE), as well as the number of parameters. From the stipulated indices of performance, among the results obtained by the different strategies, the neural models were the most satisfactory for the prediction of pretreatment responses with H2O2. The same occurred in the neural model for prediction of the residual lignin content in the pre-treatment with ScCO2. Response surfaces and the contour curves were investigated for each polynomial and neural model developed. With this resource, it was possible to identify the best operational points for the processes, pointing at minimizing the residual and oxidized lignin contents in the biomass.
22

[en] MAS-SCHOOL E ASYNC: A METHOD AND A FRAMEWORK FOR BUILDING INTELLIGENT AGENTS / [pt] MAS-SCHOOL E ASYNC: UM MÉTODO E UM FRAMEWORK PARA CONSTRUÇÃO DE AGENTES INTELIGENTES

JOSE ALBERTO RODRIGUES PEREIRA SARDINHA 08 July 2005 (has links)
[pt] Agentes de Software é uma tecnologia que permite criar simuladores e sistemas inteligentes que tomam decisões automaticamente. A primeira contribuição dessa tese é o MAS-School, um método para modelar e implementar agentes de software inteligentes desde as primeiras fases de desenvolvimento. Esse método também apresenta várias orientações de como incluir aprendizado na fase de design e implementação. O método apresenta no final uma estratégia incremental de desenvolvimento para permitir a avaliação do desempenho das técnicas de machine learning. A segunda contribuição dessa tese é o framework ASYNC. O ASYNC é composto por um conjunto de ferramentas de engenharia de software para auxiliar a construção de sistemas baseados em agentes assíncronos, cooperativos e inteligentes. Esta tese apresenta quatro estudos de casos complexos desenvolvidos com agentes inteligentes para exemplificar o uso do método e framework. A primeira aplicação apresenta um sistema baseado em agentes para criar promoções em um mercado varejista utilizando o conceito de agregação de produtos. A segunda aplicação apresenta um mercado virtual para compra e venda de bens. A terceira aplicação é um sistema multi-agente distribuído para um complexo cenário de procurement em leilões simultâneos e interdependentes. Essa aplicação participou do Trading Agent Competition em 2004 e obteve a terceira colocação. A quarta aplicação é um sistema multi-agente para um Supply Chain Management. / [en] The agent technology is used to develop systems that perform several complex tasks. This thesis presents the MAS-School method for modeling and implementing intelligent agent-based systems. The method presents a systematic approach to support a disciplined introduction of machine learning techniques in multi-agent systems from an early stage of design. The proposed approach encompasses guidelines to both the design and implementation phases of an agent-based system. It is based on an incremental development strategy that largely relies on simulation and testing techniques. This thesis also presents the ASYNC framework that is composed of software engineering tools for building agent based system for asynchronous, cooperative and intelligent agents. This thesis presents four complex applications that used the proposed method and framework in the design and implementation phase. The first case study presents an application that discovers the most appealing offerings for consumers in a retail market. The second case study presents a virtual marketplace for buying and selling goods with automatic negotiation. The third case study is a multi-agent system for a complex procurement scenario with interdependent and simultaneous auctions. This system achieved the third place in the 2004 TAC Classic competition. The fourth case study is a multi-agent system for a PC manufacturer scenario based on sourcing of components, manufacturing of PC's and sales to customers.
23

[en] PESSIMISTIC Q-LEARNING: AN ALGORITHM TO CREATE BOTS FOR TURN-BASED GAMES / [pt] Q-LEARNING PESSIMISTA: UM ALGORITMO PARA GERAÇÃO DE BOTS DE JOGOS EM TURNOS

ADRIANO BRITO PEREIRA 25 January 2017 (has links)
[pt] Este documento apresenta um novo algoritmo de aprendizado por reforço, o Q-Learning Pessimista. Nossa motivação é resolver o problema de gerar bots capazes de jogar jogos baseados em turnos e contribuir para obtenção de melhores resultados através dessa extensão do algoritmo Q-Learning. O Q-Learning Pessimista explora a flexibilidade dos cálculos gerados pelo Q-Learning tradicional sem a utilização de força bruta. Para medir a qualidade do bot gerado, consideramos qualidade como a soma do potencial de vitória e empate em um jogo. Nosso propósito fundamental é gerar bots de boa qualidade para diferentes jogos. Desta forma, podemos utilizar este algoritmo para famílias de jogos baseados em turno. Desenvolvemos um framework chamado Wisebots e realizamos experimentos com alguns cenários aplicados aos seguintes jogos tradicionais: TicTacToe, Connect-4 e CardPoints. Comparando a qualidade do Q-Learning Pessimista com a do Q-Learning tradicional, observamos ganhos de 0,8 por cento no TicTacToe, obtendo um algoritmo que nunca perde. Observamos também ganhos de 35 por cento no Connect-4 e de 27 por cento no CardPoints, elevando ambos da faixa de 50 por cento a 60 por cento para 90 por cento a 100 por cento de qualidade. Esses resultados ilustram o potencial de melhoria com o uso do Q-Learning Pessimista, sugerindo sua aplicação aos diversos tipos de jogos de turnos. / [en] This document presents a new algorithm for reinforcement learning method, Q-Learning Pessimistic. Our motivation is to resolve the problem of generating bots able to play turn-based games and contribute to achieving better results through this extension of the Q-Learning algorithm. The Q-Learning Pessimistic explores the flexibility of the calculations generated by the traditional Q-learning without the use of force brute. To measure the quality of bot generated, we consider quality as the sum of the potential to win and tie in a game. Our fundamental purpose, is to generate bots with good quality for different games. Thus, we can use this algorithm to families of turn-based games. We developed a framework called Wisebots and conducted experiments with some scenarios applied to the following traditional games TicTacToe, Connect-4 and CardPoints. Comparing the quality of Pessimistic Q-Learning with the traditional Q-Learning, we observed gains to 100 per cent in the TicTacToe, obtaining an algorithm that never loses. Also observed in 35 per cent gains Connect-4 and 27 per cent in CardPoints, increasing both the range of 60 per cent to 80 per cent for 90 per cent to 100 per cent of quality. These results illustrate the potential for improvement with the use of Q-Learning Pessimistic, suggesting its application to various types of games.
24

[en] COLLECTIVE BEHAVIOR ON MULTI-AGENT ROBOTIC SYSTEMS USING VIRTUAL SENSORS / [pt] COMPORTAMENTO COLETIVO EM SISTEMAS ROBÓTICOS MULTI-AGENTES USANDO SENSORES VIRTUAIS

08 November 2021 (has links)
[pt] Robótica coletiva de enxame é uma abordagem para o controle de sistemas robóticos multi-agentes baseada em insetos sociais e outros sistemas naturais que apresentam características de auto-organização e emergência, com aplicações disruptivas em robótica e inúmeras possibilidades de expansão em outras áreas. Porém, sendo um campo relativamente novo existem poucas plataformas experimentais para seu estudo, e as existentes são, em sua maioria, especialmente desenvolvidas para tarefas e algoritmos específicos. Uma plataforma de estudos genérica para o estudo de sistemas robóticos coletivos é, por si só, uma tarefa tecnológica não trivial além de ser um recurso valioso para um centro de pesquisas interessado em realizar experimentos no assunto. Neste trabalho dois importantes algoritmos de controle colaborativo multi-robôs foram estudados: busca do melhor caminho e transporte coletivo. Uma análise completa dos mecanismos biológicos, dos modelos lógicos e do desenvolvimento dos algoritmos é apresentada. Para realizar os experimentos uma plataforma genérica foi desenvolvida baseada nos robôs móveis “iRobot Create”. Sensores virtuais são implementados em através de um sistema de visão computacional combinado com um simulador em tempo real. O sistema de sensores virtuais permite a incorporação de sensores ideais no sistema experimental, incluindo modelos mais complexos de sensores reais, incluindo a possibilidade da adição de ruído simulador nas leituras. Esta abordagem permite também a utilização de sensores para detecção de objetos virtuais, criados pelo simulador, como paredes virtuais e feromônios virtuais. Cada robô possui um sistema eletrônico embarcado especialmente desenvolvido baseado em micro controlador ARM. A eletrônica adicionada é responsável por receber as leituras dos sensores virtuais através de um link de radio em um protocolo customizado e calcular, localmente, o comportamento do robô. Os algoritmos são implementados na linguagem de alto nível Lua. Mesmo com as leituras dos sensores virtuais sendo transmitidas de um sistema centralizado é importante ressaltar que todo o algoritmo de inteligência é executado localmente por cada agente. As versões modificadas e adaptadas dos algoritmos estudados na plataforma com sensores virtuais foram analisadas, juntamente com suas limitações, e se mostraram compatíveis com os resultados esperados e acessíveis na literatura que utiliza sistemas experimentais mais específicos e mais dispendiosos. Portanto a plataforma desenvolvida se mostra capaz como ferramenta para experimentos em controle de sistemas robóticos multi-agentes com baixo custo de implementação, além da inclusão, através do mecanismo de sensores virtuais, de sensores ainda em desenvolvimento ou comercialmente indisponíveis. / [en] Swarm robotics is an approach to multi-robot control based on social insects and other natural systems, which shows self-organization and emergent characteristics, with disruptive applications on robotics and possibilities in a variety of areas. But, being a relatively new field of research, there are few experimental platforms to its study, and most of them are crafted for very specific tasks and algorithms. A general study platform of swarm robotics, by itself, is a non-trivial technological deed and also a very valuable asset to a research center willing to run experiments on the topic. In this work, two important algorithms in multi-robot collaborative control strategies are studied: path finding and collective transport. A complete analysis of the biological mechanisms, models and computer abstractions that resulted in the development of those algorithms is shown. To perform the multi-robot experiments, several “iRobot Create” mobile robots are employed. Virtual sensors and virtual walls are implemented in real time in the experimental system through cameras and especially developed computer vision software. Virtual sensors allow the incorporation of ideal sensors in the experimental system, including complete models of real sensors, with the possibility of adding virtual noise to the measurements. This approach also allows the use of sensors to detect virtually created objects, such as virtual walls or virtual pheromones. Each physical robot has a customized embedded system, based on the ARM microprocessor, which receives the virtual sensors readings through a radio link in an also customized protocol. The behavior of each autonomous agent is locally calculated using the high-level programming language Lua. Even though the virtual sensor readings are transmitted from an external centralized computer system, all behaviors are locally and independently calculated by each agent. The adaptations of the studied algorithms to the platform with virtual sensors are analyzed, along with its limitations. It is shown that the experimental results using virtual sensors are coherent with results from the literature using very specialized and expensive robot/sensor setups. Therefore, the developed platform is able to experimentally study new control strategies and swarm algorithms with a low setup cost, including the possibility of virtually incorporating sensors that are still under development or not yet commercially available.
25

[en] ARTIFICIAL INTELLIGENCE METHODS APPLIED TO MECHANICAL ENGINEERING PROBLEMS / [pt] MÉTODOS DE INTELIGÊNCIA ARTIFICIAL APLICADOS A PROBLEMAS DE ENGENHARIA MECÂNICA

PEDRO HENRIQUE LEITE DA SILVA PIRES DOMINGUES 05 June 2020 (has links)
[pt] Problemas reais de engenharia mecânica podem compreender tarefas de i) otimização multi-objetivo (MO) ou ii) regressão, classificação e predição. Os métodos baseados em inteligência artificial (AI) são bastante difundidos na resolução desses problemas por i) demandarem menor custo computacional e informações do domínio do problema para a resolução de uma MO, quando comparados com métodos de programação matemática, por exemplo; e ii) apresentarem melhores resultados com estrutura mais simples, adaptabilidade e interpretabilidade, em contraste com outros métodos. Sendo assim, o presente trabalho busca i) otimizar um controle proporcional-integral-derivativo (PID) aplicado a um sistema de frenagem anti-travamento de rodas (ABS) e o projeto de trocadores de calor de placas aletadas (PFHE) e casco-tubo (STHE) através de métodos de otimização baseados AI, buscando o desenvolvimento de novas versões dos métodos aplicados, e.g. multi-objective salp swarm algorithm (MSSA) e multi-objective heuristic Kalman algorithm (MOHKA), que melhorem a performance da otimização; ii) desenvolver um sistema de detecção de vazamento em dutos (LDS) sensível ao roubo de combustível a partir do treinamento de árvores de decisão (DTs) com features baseadas no tempo e na análise de componentes principais (PCA), ambas exraídas de dados de transiente de pressão de operação normal do duto e de roubo de combustível; iii) constituir um guia de aplicação para problemas de MO de controle e projeto, processo de extração de features e treinamento de classificadores baseados em aprendizado de máquina (MLCs), através de aprendizado supervisionado; e, por fim iv) demonstrar o potencial das técnicas baseadas em AI. / [en] Real-world mechanical engineering problems may comprise tasks of i) multi-objective optimization (MO) or ii) regression, classification and prediction. The use of artificial intelligence (AI) based methods for solving these problems are widespread for i) demanding less computational cost and problem domain information to solve the MO, when compared with mathematical programming for an example; and ii) presenting better results with simpler structure, adaptability and interpretability, in contrast to other methods. Therefore, the present work seeks to i) optimize a proportional-integral-derivative control (PID) applied to an anti-lock braking system (ABS) and the heat exchanger design of plate-fin (PFHE) and shell-tube (STHE) types through AI based optimization methods, seeking to develop new versions of the applied methods, e.g. multi-objective salp swarm algorithm (MSSA) and multi-objective heuristic Kalman algorithm (MOHKA), which enhance the optimization performance; ii) develop a pipeline leak detection system (LDS) sensitive to fuel theft by training decision trees (DTs) with features based on time and principal component analysis (PCA), both extracted from pressure transient data of regular pipeline operation and fuel theft; iii) constitute an application guide for control and design MO problems, feature extraction process and machine learning classifiers (MLCs) training through supervised learning; and, finally, iv) demonstrate the potential of AI-based techniques.
26

[en] A ROBUST REAL-TIME COMPONENT FOR PERSONAL PROTECTIVE EQUIPMENT DETECTION IN AN INDUSTRIAL SETTING / [pt] UM COMPONENTE ROBUSTO EM TEMPO REAL PARA DETECÇÃO DE EQUIPAMENTOS DE PROTEÇÃO INDIVIDUAL EM UM AMBIENTE INDUSTRIAL

PEDRO HENRIQUE LOPES TORRES 19 July 2021 (has links)
[pt] Em grandes indústrias, como construção, metalúrgica e petróleo, trabalhadores são continuamente expostos a vários tipos de perigos em seus locais de trabalho. Segundo a Organização Internacional do Trabalho (OIT), anualmente ocorrem cerca de 340 milhões de acidentes de trabalho. Equipamentos de Proteção Individual (EPI) são utilizados para garantir a proteção essencial da saúde e segurança dos trabalhadores. Com isto, há um grande esforço para garantir que esses tipos de equipamentos sejam usados de maneira adequada em ambientes de trabalho. Em tais ambientes, é comum ter câmeras de circuito fechado de televisão (CFTV) para monitorar os trabalhadores, pois essas podem ser usadas para verificar o uso adequado de EPIs. Alguns trabalhos presentes na literatura abordam o problema de verificação automática de EPIs usando imagens de CFTV como entrada; no entanto, muitos destes trabalhos não conseguem lidar com a detecção de uso seguro de múltiplos equipamentos e outros até mesmo pulam a fase de verificação, fazendo apenas a detecção. Neste trabalho, propomos um novo componente de análise de segurança cognitiva para um sistema de monitoramento. Este componente atua para detectar o uso adequado de EPIs em tempo real, usando fluxo de dados de câmeras de CFTV comuns. Construímos este componente do sistema com base nas melhores técnicas de Aprendizado Profundo voltadas para a tarefa de detecção de objetos. A metodologia proposta é robusta com resultados consistentes e promissores em termos da métrica Mean Average Precision (mAP) e pode atuar em tempo real. / [en] In large industries, such as construction, metallurgy, and oil, workers are continually exposed to various hazards in their workplace. Accordingly to the International Labor Organization (ILO), there are 340 million occupational accidents annually. Personal Protective Equipment (PPE) is used to ensure the essential protection of workers health and safety. There is a great effort to ensure that these types of equipment are used properly. In such an environment, it is common to have closed-circuit television (CCTV) cameras to monitor workers, as those can be used to verify the PPE s proper usage. Some works address this problem using CCTV images; however, they frequently can not deal with multiples safe equipment usage detection and others even skip the verification phase, making only the detection. In this paper, we propose a novel cognitive safety analysis component for a monitoring system. This component acts to detect the proper usage of PPE s in real-time using data stream from regular CCTV cameras. We built the system component based on the top of state-of-art deep learning techniques for object detection. The methodology is robust with consistent and promising results for Mean Average Precision (mAP) and can act in real-time.
27

[pt] DIREITO À EXPLICAÇÃO E PROTEÇÃO DE DADOS PESSOAIS NAS DECISÕES POR ALGORITMOS DE INTELIGÊNCIA ARTIFICIAL / [en] RIGHT TO AN EXPLANATION AND DATA PROTECTION IN DECISIONS BY ARTIFICIAL INTELLIGENCE ALGORITHMS

ISABELLA ZALCBERG FRAJHOF 26 October 2022 (has links)
[pt] Em um mundo mediado por algoritmos, em que espaços de tomada de decisão antes destinados a humanos passam a ser dominados por estes artefatos, surge uma demanda para que estas decisões algorítmicas sejam explicáveis. Este desafio ganha uma camada de complexidade quando há o uso de técnicas de inteligência artificial, em especial, a aplicação de modelos de aprendizado de máquina, diante da opacidade e inescrutabilidade do modo de funcionamento e dos resultados gerados de alguns tipos destes algoritmos. Neste sentido, esta tese tem início com a apresentação do conceito e dos desafios da inteligência artificial e do aprendizado de máquina para o Direito, particularmente para direitos fundamentais (i.e. proteção de dados pessoais, privacidade, liberdade, autonomia e igualdade). Em seguida, é compartilhada a discussão envolvendo o direito à explicação quando do seu surgimento, e como a sua previsão na LGPD poderá ser interpretada à luz dos aprendizados e interpretações já colhidos no âmbito do GDPR. Ainda, serão analisados como os principais desafios para os direitos fundamentais que são colocados por tais algoritmos de tomada de decisão podem ser resumidos sob os princípios de transparência, prestação de contas e responsabilização e justiça/igualdade. É proposta uma abordagem multifacetada e multidisciplinar, a ser aplicada em diferentes momentos, para assegurar a observância de tais princípios no desenvolvimento e uso de algoritmos de tomada de decisão de aprendizado de máquina. Por fim, propõe-se que a garantia de um direito à explicação, atualmente inserido em uma discussão mais ampla de prestação de contas e responsabilização, deve atender a uma perspectiva de mérito e de procedimento. São identificados os diferentes tipos de conteúdos que têm sido mapeados como passíveis de serem exigidos a título de explicação, e os valores e direitos que um direito à explicação visa proteger, demonstrado, ao final, a importância de que este conteúdo possa estar sujeito a algum tipo de escrutínio público. / [en] In a world mediated by algorithms, in which decision-making spaces previously destined for humans are now dominated by these artifacts, urges a demand for these algorithmic decisions to be explainable. This challenge gains a layer of complexity when artificial intelligence techniques are used, in particular, the application of machine learning models, given the opacity and inscrutability of the operating mode and the results generated by some types of these algorithms. In this sense, this thesis begins with the presentation of the concept and challenges of artificial intelligence and machine learning for the area of Law, particularly for fundamental rights (i.e. data protection, privacy, freedom, autonomy and equality). Then, the discussion involving the arise of a right to explanation is presented, and how its provision in the LGPD can be interpreted in the light of the lessons learned and interpretations already gathered under the GDPR. Furthermore, it will be analyzed how the main challenges for fundamental rights that are posed by such decision-making algorithms can be summarized under the principles of transparency, accountability and justice/equality. A multifaceted and multidisciplinary approach is proposed, to be applied at different moments in time, to ensure that such principles are incorporated during the development and use of machine learning decision-making algorithms. Finally, this thesis proposed that guaranteeing a right to explanation, which is currently allocated in a broader discussion involving accountability, must take into account a perspective of merit and procedure. The different types of content that have been mapped as likely to be required as an explanation are identified, as well as the values and rights that a right to explanation aims to protect, demonstrating, finally, the importance that such content be subject to public scrutiny.
28

[en] INTEGRATING ARTIFICIAL NEURAL NETWORKS AND GREEN S FUNCTION APPROACH FOR GEOMECHANICS APPLICATION / [pt] INTEGRAÇÃO DE REDES NEURAIS ARTIFICIAIS A MÉTODOS NUMÉRICOS BASEADOS EM FUNÇÕES DE GREEN PARA APLICAÇÕES EM GEOMECÂNICA

MATHEUS LOPES PERES 18 July 2023 (has links)
[pt] A modelagem de problemas relacionados a geomecânica do reservatório é tradicionalmente realizada por elementos finitos. Para utilizar esse método é preciso que o modelo englobe uma região consideravelmente superior a região em que o reservatório está inserido, além de necessitar imposição condições de contorno. Pensando em reduzir a necessidade de discretização de grandes regiões do maciço rochoso é proposto o método das funções de Green para análise geomecânica. Este método é baseado no uso de soluções analíticas clássicas (solução fundamental de Kelvin, solução fundamental de Melan, por exemplo) como soluções auxiliares para resolver problemas elasticamente heterogêneo e não lineares em meios saturados de fluidos. A não linearidade do material pode ser devido a deformações irreversíveis ou resposta de elasticidade não linear típica da análise 4D. O procedimento de solução geral depende de um método de colocação discreta e uma abordagem iterativa de ponto fixo para construir o campo de deslocamento. Esse método teve sua convergência verificada através de modelos simplificados que possuem solução analítica. Visando o avanço do desempenho computacional do método das funções de Green, foram feitas duas modificações independentes utilizando inteligência artificial. A primeira modificação é baseada na integração de dois conceitos principais: o teorema da reciprocidade e a capacidade de generalização das redes neurais artificiais. O teorema da reciprocidade é usado para formular a expressão matemática que rege o problema geomecânico, que é então discretizado no espaço em elementos inteligentes. O comportamento do campo de deformação dentro desses novos elementos é previsto usando uma rede neural artificial. Para fazer essas previsões, a rede neural usa condições de contorno de deslocamento, propriedades do material e a forma geométrica do elemento como dados de entrada. A segunda modificação consiste na utilização de soluções auxiliares que considerem a heterogeneidade de maciços estratificados. Essas soluções são obtidas através do treinamento de redes neurais artificiais que tem como dado de saída o deslocamento em um determinado ponto do maciço estratificado devido a aplicação de uma força pontual em um ponto no interior desse maciço. Para isso, as redes neurais de deslocamentos necessitam das propriedades elásticas e da espessura de cada camada do maciço bem como das coordenadas de aplicação da força pontual e do ponto onde será avaliado o deslocamento. Ao se utilizar essas soluções fundamentais baseadas em inteligência artificial é possível se obter todo o campo de deslocamentos de um problema heterogêneo e elástico de geomecânica do reservatório bastando apenas discretizar o reservatório. Cada uma das modificações do método da função de Green foi avaliada individualmente e observou-se um ganho de pelo menos 5 vezes no tempo de processo, utilizando o mesmo recurso computacional, quando se compara ao método clássico da função de Green. / [en] The analysis and simulation of problems associated with reservoir geomechanics are traditionally performed using the finite element method. However, to perform this analysis, it is necessary to consider a region much larger than the region in which the reservoir is inserted. This is done so that boundary conditions can be applied in an attempt to mimic the effect of the infinite media surrounding the reservoir. With the aim of reducing the need for discretization of large regions of the massif, a Green s functions approach was proposed for reservoir geomechanical analysis. This method is based on the use of classical analytical solutions (Kelvin s fundamental solution, Melan s fundamental solution, for example) as auxiliary solutions to solve elastically heterogeneous and nonlinear problems in fluid-saturated media. The non-linearity of the material can be due to irreversible deformations or non-linear elasticity response typical of 4D analysis. The general solution procedure relies on a discrete collocation method and an iterative fixed-point approach to build the displacement field. This method´s convergence was verified through simplified models that have analytical solutions. As the reduction in processing time is crucial for decision-makers to act in field applications, two improvements were proposed using artificial intelligence (AI) to reduce processing time of the Green s function approach. The first improvement is based on the generalization ability of artificial neural networks (ANN). Due to this characteristic, it was proposed to discretize the model with a coarse mesh of intelligent elements instead of refined mesh of traditional elements based on polynomials. The behavior of the strain field within these new elements is predicted using an ANN. To make these predictions, the neural network uses displacement boundary conditions, material properties and the geometric shape of the element as input data. The examples comparing the intelligent element approach and the traditional method were performed on a computer with 12 threads of 2,6GHz and 32GB RAM. This comparison showed reductions between five and ten times in CPU time, while maintaining the accuracy of the results. The second improvement consists in the use of auxiliary solutions that consider the heterogeneity of stratified massifs. These solutions are obtained through the training of artificial neural networks that have as output the displacement in a certain point of the stratified massif due to the application of a point load inside the massif. This ANN uses as input data elastic properties and the thickness of each layer of the massif, and of the semi-infinite media, as well as the coordinates of the point load and of the point where the displacement is to be evaluated. The use of the developed ANN-based Green’s function approach only demands the discretization of the reservoir itself, thus avoiding the discretization of other regions of the massif. Furthermore, it is possible to obtain the displacement at any point of the massif due to a pore pressure variation within the reservoir without having to solve for the other points in the massif. These two characteristics increase the efficient of the method in relation to traditional methods, such as the finite element method. A numerical example was performed on a computer with 12 threads of 2,6GHz and 32GB RAM to compare the ANN-based Green’s function approach with the traditional approach. The CPU time to obtain the solution using the ANN-based Green’s function approach was five times smaller than the that required by the traditional approach.
29

[en] THE USE OF ARTIFICIAL INTELLIGENT FOR PREDICTING CONCRETE DRYING SHRINKAGE / [pt] USO DA INTELIGÊNCIA ARTIFICIAL PARA PREDIÇÃO DA RETRAÇÃO POR SECAGEM DO CONCRETO

DIOGO FARIA DE SOUSA 24 January 2024 (has links)
[pt] Devido a variações volumétricas do concreto, a compreensão dos mecanismos da retração tornou-se ponto importante para redução de fissuras e, consequentemente, da penetração de agentes agressivos. Apesar do aumento do número de estudos experimentais de retração por secagem e autógena ainda é necessário o desenvolvimento de novos modelos analíticos e numéricos para a predição da retração apoiando assim o projeto de estruturas de concreto. Este estudo propôs um modelo de redes neurais artificiais para a predição da retração por secagem do concreto. Um banco de dados nacionais contendo 689 leituras de retração por secagem em mais de 90 dosagens diferentes de concreto convencional foi construído, de acordo com a NBR 16834. O modelo teve como dados de entrada para a predição da retração o consumo e tipo de cimento, aditivo retardador e plastificante, compensador de retração, relação água/cimento e idade do concreto. O modelo apresentou coeficientes de determinação (R²) para dados de treino e teste acima de 0,998 e 0,906, respectivamente, comprovando que o modelo é uma importante ferramenta para a predição da retração por secagem para tomadas de decisão durante os estudos iniciais na fase de projeto e dosagem do concreto. / [en] Due to volume change effects of concrete, understanding the mechanisms of shrinkage has become an important point for reducing cracks and, consequently, the penetration of deleterious agents into concrete structures. Despite the increase in experimental studies on concrete drying and autogenous shrinkage there is still a need to develop new analytical and numerical methods to predict shrinkage supporting the design of concrete structures. This study proposed an Artificial Neural Network (ANN) model to predict the concrete drying shrinkage. A national database containing 689 experimental shrinkage data records, in more than 90 different mixtures of conventional concrete was constructed, in accordance with NBR 16834. The model had as input data for predicting shrinkage the consumption and type of cement, retarding and plasticizer additive, shrinkage compensator, water/cement ratio and age of concrete. The model presented coefficients of determination(R²) for training and test data above 0,998 and 0,906, proving that the model is an important tool for predicting drying shrinkage for decision making during the initial study in the design phase and concrete mix design.
30

[en] INCLUSION OF NON-SYMBOLIC HUMAN AGENCIES THROUGH DEEP LEARNING IN COMPUTATIONAL DESIGN PROCESSES / [pt] INCLUSÃO DE AGÊNCIAS HUMANAS NÃO SIMBÓLICAS ATRAVÉS DE TÉCNICAS DE APRENDIZADO PROFUNDO EM PROCESSOS DE DESIGN COMPUTACIONAL GENERATIVO

DANIEL RIBEIRO ALVES BARBOZA VIANNA 03 January 2024 (has links)
[pt] O Design Computacional Generativo é uma forma de Design que consegue gerar uma quantidade virtualmente infinita de possíveis soluções e filtrá-las através de análises computacionais. Cada análise, experimenta e gradua uma demanda, que pode ser relacionada a diversos entes e como estes afetam e são afetados por um design. Dessa maneira, essas análises podem ser entendidas como uma forma de incluir de maneira integrada diversos fatores na síntese da forma do Design. Mesmo com todo esse potencial, as abordagens baseadas no Design Computacional Generativo ainda enfrentam dificuldades na análise e na inclusão de algumas demandas, principalmente naquelas de natureza subjetiva. Isso vem mudando devido a recente introdução de técnicas de Aprendizado Profundo no Design. Essas ferramentas conseguem captar conhecimentos implícitos através da sua aptidão para encontrar padrões em grandes quantidades de dados e replicá-los. Assim, elas podem replicar a avaliação de um designer humano. Essa pesquisa foca especificamente nas análises de critérios processados pelas capacidades humanas não simbólicas. Essas capacidades são aquelas que os humanos partilham com os animais vertebrados e permitem a compreensão de significados e o acionamento de ações sem a necessidade de linguagem. Essas capacidades possuem ao mesmo tempo um caráter objetivo, porque possuem uma base biológica comum a todos os humanos; e subjetivo, porque são influenciadas pelo estado psíquico, pelas motivações e pela experiência de um sujeito. Nesse contexto, o problema identificado é que sem um embasamento teórico essas técnicas acabam se limitando a um exercício fantasioso e ingênuo de automação de Design. Portanto, esta pesquisa parte da hipótese de que um embasamento teórico de conhecimentos da Teoria Pós- humana, da neurociência Conexionista e das Teorias de Fundamentos do Design possibilita que estímulos humanos não simbólicos possam ser incluídos de maneira efetiva na síntese da forma de processos de Design Computacional Generativo através de técnicas de Aprendizado Profundo. O objetivo do trabalho é compreender como a inserção dessas novas técnicas associadas a uma fundamentação teórica específica, vão propiciar a inclusão de fatores não- simbólicas na síntese da forma em processos de Design Computacional Generativo. Para atingir esse objetivo, a pesquisa propõe a elaboração de um conjunto de diretrizes, de uma estrutura metodológica conceitual e de um experimento prático que verifique o funcionamento da avaliação através de máquinas de Aprendizado Profundo. Esses três itens partem do estado da arte da interseção entre o Design Computacional Generativo e as técnicas de Aprendizado Profundo e se baseiam nos conhecimentos Pós-humanos, da neurociência Conexionista e das teorias de Fundamentos do Design. A pesquisa entrelaça dois temas atuais e significativos para o Campo do Design. De um lado, ela busca conhecimentos que preparem os designers para as transformações que a incorporação das técnicas recentes de inteligência artificial vem causando; e de outro, ela se insere nos esforços para que o Design seja um instrumento de transformação da sociedade através de uma reaproximação com as capacidades não simbólicas. / [en] Generative Computational Design is a form of Design that manages to generate a virtually infinite amount of possible solutions and filter them through computational analysis. Each analysis experiences and grades a demand, which can be related to different entities and how they affect and are affected by a design. In this way, these analyzes can be understood as a way of including in an integrated way several factors in the synthesis of the form of Design. Even with all this potential, approaches based on Generative Computational Design still face difficulties in analyzing and including some demands, especially those of a subjective nature. This has been changing due to the recent introduction of Deep Learning techniques in Design. These tools are able to capture implicit knowledge through their ability to find patterns in large amounts of data and replicate them. Thus, they can replicate the assessment of a human designer. This research specifically focuses on the analysis of criteria processed by non-symbolic human capacities. These capabilities are those that humans share with vertebrate animals and allow them the understanding of meanings and the triggering of actions without the need for language. These capacities have at the same time an objective character, because they have a biological basis common to all humans; and subjective, because they are influenced by a subject s psychic state, motivations and experience. In this context, the problem identified is that without a theoretical basis these techniques end up being limited to a fanciful and naive exercise in Design automation and simplistic approaches to style transfer. Thus, this research starts from the hypothesis that a theoretical foundation of knowledge from the Post- Human Theory, from the connectionist neuroscience and from the Fundamental Theories of Design can enable non-symbolic human factors to be effectively included in the synthesis of the form of processes of Generative Computational Design through Deep Learning techniques. The objective of this work is to understand how the insertion of these new techniques associated with a specific theoretical foundation will enable the inclusion of non-symbolic factors in the synthesis of form in Generative Computational Design processes. To achieve this objective, the research proposes the elaboration of a conceptual methodological framework based on the state of the art of the intersection between Generative Computational Design and Deep Learning techniques associated with Post-human knowledge, connectionist neuroscience and Design Foundations theories; as well as the verification of the operation of the technique through the execution of a practical experimental procedure. The research intertwines two current and significant themes for the Field of Design. On the one hand, it seeks knowledge that prepares designers for the transformations that the incorporation of recent artificial intelligence techniques has caused; and on the other hand, it is part of efforts to make Design an instrument for transforming society through a rapprochement with non-symbolic capacities.

Page generated in 0.0613 seconds