• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 9
  • Tagged with
  • 41
  • 41
  • 41
  • 40
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] PESSIMISTIC Q-LEARNING: AN ALGORITHM TO CREATE BOTS FOR TURN-BASED GAMES / [pt] Q-LEARNING PESSIMISTA: UM ALGORITMO PARA GERAÇÃO DE BOTS DE JOGOS EM TURNOS

ADRIANO BRITO PEREIRA 25 January 2017 (has links)
[pt] Este documento apresenta um novo algoritmo de aprendizado por reforço, o Q-Learning Pessimista. Nossa motivação é resolver o problema de gerar bots capazes de jogar jogos baseados em turnos e contribuir para obtenção de melhores resultados através dessa extensão do algoritmo Q-Learning. O Q-Learning Pessimista explora a flexibilidade dos cálculos gerados pelo Q-Learning tradicional sem a utilização de força bruta. Para medir a qualidade do bot gerado, consideramos qualidade como a soma do potencial de vitória e empate em um jogo. Nosso propósito fundamental é gerar bots de boa qualidade para diferentes jogos. Desta forma, podemos utilizar este algoritmo para famílias de jogos baseados em turno. Desenvolvemos um framework chamado Wisebots e realizamos experimentos com alguns cenários aplicados aos seguintes jogos tradicionais: TicTacToe, Connect-4 e CardPoints. Comparando a qualidade do Q-Learning Pessimista com a do Q-Learning tradicional, observamos ganhos de 0,8 por cento no TicTacToe, obtendo um algoritmo que nunca perde. Observamos também ganhos de 35 por cento no Connect-4 e de 27 por cento no CardPoints, elevando ambos da faixa de 50 por cento a 60 por cento para 90 por cento a 100 por cento de qualidade. Esses resultados ilustram o potencial de melhoria com o uso do Q-Learning Pessimista, sugerindo sua aplicação aos diversos tipos de jogos de turnos. / [en] This document presents a new algorithm for reinforcement learning method, Q-Learning Pessimistic. Our motivation is to resolve the problem of generating bots able to play turn-based games and contribute to achieving better results through this extension of the Q-Learning algorithm. The Q-Learning Pessimistic explores the flexibility of the calculations generated by the traditional Q-learning without the use of force brute. To measure the quality of bot generated, we consider quality as the sum of the potential to win and tie in a game. Our fundamental purpose, is to generate bots with good quality for different games. Thus, we can use this algorithm to families of turn-based games. We developed a framework called Wisebots and conducted experiments with some scenarios applied to the following traditional games TicTacToe, Connect-4 and CardPoints. Comparing the quality of Pessimistic Q-Learning with the traditional Q-Learning, we observed gains to 100 per cent in the TicTacToe, obtaining an algorithm that never loses. Also observed in 35 per cent gains Connect-4 and 27 per cent in CardPoints, increasing both the range of 60 per cent to 80 per cent for 90 per cent to 100 per cent of quality. These results illustrate the potential for improvement with the use of Q-Learning Pessimistic, suggesting its application to various types of games.
22

[en] COLLECTIVE BEHAVIOR ON MULTI-AGENT ROBOTIC SYSTEMS USING VIRTUAL SENSORS / [pt] COMPORTAMENTO COLETIVO EM SISTEMAS ROBÓTICOS MULTI-AGENTES USANDO SENSORES VIRTUAIS

08 November 2021 (has links)
[pt] Robótica coletiva de enxame é uma abordagem para o controle de sistemas robóticos multi-agentes baseada em insetos sociais e outros sistemas naturais que apresentam características de auto-organização e emergência, com aplicações disruptivas em robótica e inúmeras possibilidades de expansão em outras áreas. Porém, sendo um campo relativamente novo existem poucas plataformas experimentais para seu estudo, e as existentes são, em sua maioria, especialmente desenvolvidas para tarefas e algoritmos específicos. Uma plataforma de estudos genérica para o estudo de sistemas robóticos coletivos é, por si só, uma tarefa tecnológica não trivial além de ser um recurso valioso para um centro de pesquisas interessado em realizar experimentos no assunto. Neste trabalho dois importantes algoritmos de controle colaborativo multi-robôs foram estudados: busca do melhor caminho e transporte coletivo. Uma análise completa dos mecanismos biológicos, dos modelos lógicos e do desenvolvimento dos algoritmos é apresentada. Para realizar os experimentos uma plataforma genérica foi desenvolvida baseada nos robôs móveis “iRobot Create”. Sensores virtuais são implementados em através de um sistema de visão computacional combinado com um simulador em tempo real. O sistema de sensores virtuais permite a incorporação de sensores ideais no sistema experimental, incluindo modelos mais complexos de sensores reais, incluindo a possibilidade da adição de ruído simulador nas leituras. Esta abordagem permite também a utilização de sensores para detecção de objetos virtuais, criados pelo simulador, como paredes virtuais e feromônios virtuais. Cada robô possui um sistema eletrônico embarcado especialmente desenvolvido baseado em micro controlador ARM. A eletrônica adicionada é responsável por receber as leituras dos sensores virtuais através de um link de radio em um protocolo customizado e calcular, localmente, o comportamento do robô. Os algoritmos são implementados na linguagem de alto nível Lua. Mesmo com as leituras dos sensores virtuais sendo transmitidas de um sistema centralizado é importante ressaltar que todo o algoritmo de inteligência é executado localmente por cada agente. As versões modificadas e adaptadas dos algoritmos estudados na plataforma com sensores virtuais foram analisadas, juntamente com suas limitações, e se mostraram compatíveis com os resultados esperados e acessíveis na literatura que utiliza sistemas experimentais mais específicos e mais dispendiosos. Portanto a plataforma desenvolvida se mostra capaz como ferramenta para experimentos em controle de sistemas robóticos multi-agentes com baixo custo de implementação, além da inclusão, através do mecanismo de sensores virtuais, de sensores ainda em desenvolvimento ou comercialmente indisponíveis. / [en] Swarm robotics is an approach to multi-robot control based on social insects and other natural systems, which shows self-organization and emergent characteristics, with disruptive applications on robotics and possibilities in a variety of areas. But, being a relatively new field of research, there are few experimental platforms to its study, and most of them are crafted for very specific tasks and algorithms. A general study platform of swarm robotics, by itself, is a non-trivial technological deed and also a very valuable asset to a research center willing to run experiments on the topic. In this work, two important algorithms in multi-robot collaborative control strategies are studied: path finding and collective transport. A complete analysis of the biological mechanisms, models and computer abstractions that resulted in the development of those algorithms is shown. To perform the multi-robot experiments, several “iRobot Create” mobile robots are employed. Virtual sensors and virtual walls are implemented in real time in the experimental system through cameras and especially developed computer vision software. Virtual sensors allow the incorporation of ideal sensors in the experimental system, including complete models of real sensors, with the possibility of adding virtual noise to the measurements. This approach also allows the use of sensors to detect virtually created objects, such as virtual walls or virtual pheromones. Each physical robot has a customized embedded system, based on the ARM microprocessor, which receives the virtual sensors readings through a radio link in an also customized protocol. The behavior of each autonomous agent is locally calculated using the high-level programming language Lua. Even though the virtual sensor readings are transmitted from an external centralized computer system, all behaviors are locally and independently calculated by each agent. The adaptations of the studied algorithms to the platform with virtual sensors are analyzed, along with its limitations. It is shown that the experimental results using virtual sensors are coherent with results from the literature using very specialized and expensive robot/sensor setups. Therefore, the developed platform is able to experimentally study new control strategies and swarm algorithms with a low setup cost, including the possibility of virtually incorporating sensors that are still under development or not yet commercially available.
23

[en] ARTIFICIAL INTELLIGENCE METHODS APPLIED TO MECHANICAL ENGINEERING PROBLEMS / [pt] MÉTODOS DE INTELIGÊNCIA ARTIFICIAL APLICADOS A PROBLEMAS DE ENGENHARIA MECÂNICA

PEDRO HENRIQUE LEITE DA SILVA PIRES DOMINGUES 05 June 2020 (has links)
[pt] Problemas reais de engenharia mecânica podem compreender tarefas de i) otimização multi-objetivo (MO) ou ii) regressão, classificação e predição. Os métodos baseados em inteligência artificial (AI) são bastante difundidos na resolução desses problemas por i) demandarem menor custo computacional e informações do domínio do problema para a resolução de uma MO, quando comparados com métodos de programação matemática, por exemplo; e ii) apresentarem melhores resultados com estrutura mais simples, adaptabilidade e interpretabilidade, em contraste com outros métodos. Sendo assim, o presente trabalho busca i) otimizar um controle proporcional-integral-derivativo (PID) aplicado a um sistema de frenagem anti-travamento de rodas (ABS) e o projeto de trocadores de calor de placas aletadas (PFHE) e casco-tubo (STHE) através de métodos de otimização baseados AI, buscando o desenvolvimento de novas versões dos métodos aplicados, e.g. multi-objective salp swarm algorithm (MSSA) e multi-objective heuristic Kalman algorithm (MOHKA), que melhorem a performance da otimização; ii) desenvolver um sistema de detecção de vazamento em dutos (LDS) sensível ao roubo de combustível a partir do treinamento de árvores de decisão (DTs) com features baseadas no tempo e na análise de componentes principais (PCA), ambas exraídas de dados de transiente de pressão de operação normal do duto e de roubo de combustível; iii) constituir um guia de aplicação para problemas de MO de controle e projeto, processo de extração de features e treinamento de classificadores baseados em aprendizado de máquina (MLCs), através de aprendizado supervisionado; e, por fim iv) demonstrar o potencial das técnicas baseadas em AI. / [en] Real-world mechanical engineering problems may comprise tasks of i) multi-objective optimization (MO) or ii) regression, classification and prediction. The use of artificial intelligence (AI) based methods for solving these problems are widespread for i) demanding less computational cost and problem domain information to solve the MO, when compared with mathematical programming for an example; and ii) presenting better results with simpler structure, adaptability and interpretability, in contrast to other methods. Therefore, the present work seeks to i) optimize a proportional-integral-derivative control (PID) applied to an anti-lock braking system (ABS) and the heat exchanger design of plate-fin (PFHE) and shell-tube (STHE) types through AI based optimization methods, seeking to develop new versions of the applied methods, e.g. multi-objective salp swarm algorithm (MSSA) and multi-objective heuristic Kalman algorithm (MOHKA), which enhance the optimization performance; ii) develop a pipeline leak detection system (LDS) sensitive to fuel theft by training decision trees (DTs) with features based on time and principal component analysis (PCA), both extracted from pressure transient data of regular pipeline operation and fuel theft; iii) constitute an application guide for control and design MO problems, feature extraction process and machine learning classifiers (MLCs) training through supervised learning; and, finally, iv) demonstrate the potential of AI-based techniques.
24

[en] A ROBUST REAL-TIME COMPONENT FOR PERSONAL PROTECTIVE EQUIPMENT DETECTION IN AN INDUSTRIAL SETTING / [pt] UM COMPONENTE ROBUSTO EM TEMPO REAL PARA DETECÇÃO DE EQUIPAMENTOS DE PROTEÇÃO INDIVIDUAL EM UM AMBIENTE INDUSTRIAL

PEDRO HENRIQUE LOPES TORRES 19 July 2021 (has links)
[pt] Em grandes indústrias, como construção, metalúrgica e petróleo, trabalhadores são continuamente expostos a vários tipos de perigos em seus locais de trabalho. Segundo a Organização Internacional do Trabalho (OIT), anualmente ocorrem cerca de 340 milhões de acidentes de trabalho. Equipamentos de Proteção Individual (EPI) são utilizados para garantir a proteção essencial da saúde e segurança dos trabalhadores. Com isto, há um grande esforço para garantir que esses tipos de equipamentos sejam usados de maneira adequada em ambientes de trabalho. Em tais ambientes, é comum ter câmeras de circuito fechado de televisão (CFTV) para monitorar os trabalhadores, pois essas podem ser usadas para verificar o uso adequado de EPIs. Alguns trabalhos presentes na literatura abordam o problema de verificação automática de EPIs usando imagens de CFTV como entrada; no entanto, muitos destes trabalhos não conseguem lidar com a detecção de uso seguro de múltiplos equipamentos e outros até mesmo pulam a fase de verificação, fazendo apenas a detecção. Neste trabalho, propomos um novo componente de análise de segurança cognitiva para um sistema de monitoramento. Este componente atua para detectar o uso adequado de EPIs em tempo real, usando fluxo de dados de câmeras de CFTV comuns. Construímos este componente do sistema com base nas melhores técnicas de Aprendizado Profundo voltadas para a tarefa de detecção de objetos. A metodologia proposta é robusta com resultados consistentes e promissores em termos da métrica Mean Average Precision (mAP) e pode atuar em tempo real. / [en] In large industries, such as construction, metallurgy, and oil, workers are continually exposed to various hazards in their workplace. Accordingly to the International Labor Organization (ILO), there are 340 million occupational accidents annually. Personal Protective Equipment (PPE) is used to ensure the essential protection of workers health and safety. There is a great effort to ensure that these types of equipment are used properly. In such an environment, it is common to have closed-circuit television (CCTV) cameras to monitor workers, as those can be used to verify the PPE s proper usage. Some works address this problem using CCTV images; however, they frequently can not deal with multiples safe equipment usage detection and others even skip the verification phase, making only the detection. In this paper, we propose a novel cognitive safety analysis component for a monitoring system. This component acts to detect the proper usage of PPE s in real-time using data stream from regular CCTV cameras. We built the system component based on the top of state-of-art deep learning techniques for object detection. The methodology is robust with consistent and promising results for Mean Average Precision (mAP) and can act in real-time.
25

[pt] DIREITO À EXPLICAÇÃO E PROTEÇÃO DE DADOS PESSOAIS NAS DECISÕES POR ALGORITMOS DE INTELIGÊNCIA ARTIFICIAL / [en] RIGHT TO AN EXPLANATION AND DATA PROTECTION IN DECISIONS BY ARTIFICIAL INTELLIGENCE ALGORITHMS

ISABELLA ZALCBERG FRAJHOF 26 October 2022 (has links)
[pt] Em um mundo mediado por algoritmos, em que espaços de tomada de decisão antes destinados a humanos passam a ser dominados por estes artefatos, surge uma demanda para que estas decisões algorítmicas sejam explicáveis. Este desafio ganha uma camada de complexidade quando há o uso de técnicas de inteligência artificial, em especial, a aplicação de modelos de aprendizado de máquina, diante da opacidade e inescrutabilidade do modo de funcionamento e dos resultados gerados de alguns tipos destes algoritmos. Neste sentido, esta tese tem início com a apresentação do conceito e dos desafios da inteligência artificial e do aprendizado de máquina para o Direito, particularmente para direitos fundamentais (i.e. proteção de dados pessoais, privacidade, liberdade, autonomia e igualdade). Em seguida, é compartilhada a discussão envolvendo o direito à explicação quando do seu surgimento, e como a sua previsão na LGPD poderá ser interpretada à luz dos aprendizados e interpretações já colhidos no âmbito do GDPR. Ainda, serão analisados como os principais desafios para os direitos fundamentais que são colocados por tais algoritmos de tomada de decisão podem ser resumidos sob os princípios de transparência, prestação de contas e responsabilização e justiça/igualdade. É proposta uma abordagem multifacetada e multidisciplinar, a ser aplicada em diferentes momentos, para assegurar a observância de tais princípios no desenvolvimento e uso de algoritmos de tomada de decisão de aprendizado de máquina. Por fim, propõe-se que a garantia de um direito à explicação, atualmente inserido em uma discussão mais ampla de prestação de contas e responsabilização, deve atender a uma perspectiva de mérito e de procedimento. São identificados os diferentes tipos de conteúdos que têm sido mapeados como passíveis de serem exigidos a título de explicação, e os valores e direitos que um direito à explicação visa proteger, demonstrado, ao final, a importância de que este conteúdo possa estar sujeito a algum tipo de escrutínio público. / [en] In a world mediated by algorithms, in which decision-making spaces previously destined for humans are now dominated by these artifacts, urges a demand for these algorithmic decisions to be explainable. This challenge gains a layer of complexity when artificial intelligence techniques are used, in particular, the application of machine learning models, given the opacity and inscrutability of the operating mode and the results generated by some types of these algorithms. In this sense, this thesis begins with the presentation of the concept and challenges of artificial intelligence and machine learning for the area of Law, particularly for fundamental rights (i.e. data protection, privacy, freedom, autonomy and equality). Then, the discussion involving the arise of a right to explanation is presented, and how its provision in the LGPD can be interpreted in the light of the lessons learned and interpretations already gathered under the GDPR. Furthermore, it will be analyzed how the main challenges for fundamental rights that are posed by such decision-making algorithms can be summarized under the principles of transparency, accountability and justice/equality. A multifaceted and multidisciplinary approach is proposed, to be applied at different moments in time, to ensure that such principles are incorporated during the development and use of machine learning decision-making algorithms. Finally, this thesis proposed that guaranteeing a right to explanation, which is currently allocated in a broader discussion involving accountability, must take into account a perspective of merit and procedure. The different types of content that have been mapped as likely to be required as an explanation are identified, as well as the values and rights that a right to explanation aims to protect, demonstrating, finally, the importance that such content be subject to public scrutiny.
26

[en] INTEGRATING ARTIFICIAL NEURAL NETWORKS AND GREEN S FUNCTION APPROACH FOR GEOMECHANICS APPLICATION / [pt] INTEGRAÇÃO DE REDES NEURAIS ARTIFICIAIS A MÉTODOS NUMÉRICOS BASEADOS EM FUNÇÕES DE GREEN PARA APLICAÇÕES EM GEOMECÂNICA

MATHEUS LOPES PERES 18 July 2023 (has links)
[pt] A modelagem de problemas relacionados a geomecânica do reservatório é tradicionalmente realizada por elementos finitos. Para utilizar esse método é preciso que o modelo englobe uma região consideravelmente superior a região em que o reservatório está inserido, além de necessitar imposição condições de contorno. Pensando em reduzir a necessidade de discretização de grandes regiões do maciço rochoso é proposto o método das funções de Green para análise geomecânica. Este método é baseado no uso de soluções analíticas clássicas (solução fundamental de Kelvin, solução fundamental de Melan, por exemplo) como soluções auxiliares para resolver problemas elasticamente heterogêneo e não lineares em meios saturados de fluidos. A não linearidade do material pode ser devido a deformações irreversíveis ou resposta de elasticidade não linear típica da análise 4D. O procedimento de solução geral depende de um método de colocação discreta e uma abordagem iterativa de ponto fixo para construir o campo de deslocamento. Esse método teve sua convergência verificada através de modelos simplificados que possuem solução analítica. Visando o avanço do desempenho computacional do método das funções de Green, foram feitas duas modificações independentes utilizando inteligência artificial. A primeira modificação é baseada na integração de dois conceitos principais: o teorema da reciprocidade e a capacidade de generalização das redes neurais artificiais. O teorema da reciprocidade é usado para formular a expressão matemática que rege o problema geomecânico, que é então discretizado no espaço em elementos inteligentes. O comportamento do campo de deformação dentro desses novos elementos é previsto usando uma rede neural artificial. Para fazer essas previsões, a rede neural usa condições de contorno de deslocamento, propriedades do material e a forma geométrica do elemento como dados de entrada. A segunda modificação consiste na utilização de soluções auxiliares que considerem a heterogeneidade de maciços estratificados. Essas soluções são obtidas através do treinamento de redes neurais artificiais que tem como dado de saída o deslocamento em um determinado ponto do maciço estratificado devido a aplicação de uma força pontual em um ponto no interior desse maciço. Para isso, as redes neurais de deslocamentos necessitam das propriedades elásticas e da espessura de cada camada do maciço bem como das coordenadas de aplicação da força pontual e do ponto onde será avaliado o deslocamento. Ao se utilizar essas soluções fundamentais baseadas em inteligência artificial é possível se obter todo o campo de deslocamentos de um problema heterogêneo e elástico de geomecânica do reservatório bastando apenas discretizar o reservatório. Cada uma das modificações do método da função de Green foi avaliada individualmente e observou-se um ganho de pelo menos 5 vezes no tempo de processo, utilizando o mesmo recurso computacional, quando se compara ao método clássico da função de Green. / [en] The analysis and simulation of problems associated with reservoir geomechanics are traditionally performed using the finite element method. However, to perform this analysis, it is necessary to consider a region much larger than the region in which the reservoir is inserted. This is done so that boundary conditions can be applied in an attempt to mimic the effect of the infinite media surrounding the reservoir. With the aim of reducing the need for discretization of large regions of the massif, a Green s functions approach was proposed for reservoir geomechanical analysis. This method is based on the use of classical analytical solutions (Kelvin s fundamental solution, Melan s fundamental solution, for example) as auxiliary solutions to solve elastically heterogeneous and nonlinear problems in fluid-saturated media. The non-linearity of the material can be due to irreversible deformations or non-linear elasticity response typical of 4D analysis. The general solution procedure relies on a discrete collocation method and an iterative fixed-point approach to build the displacement field. This method´s convergence was verified through simplified models that have analytical solutions. As the reduction in processing time is crucial for decision-makers to act in field applications, two improvements were proposed using artificial intelligence (AI) to reduce processing time of the Green s function approach. The first improvement is based on the generalization ability of artificial neural networks (ANN). Due to this characteristic, it was proposed to discretize the model with a coarse mesh of intelligent elements instead of refined mesh of traditional elements based on polynomials. The behavior of the strain field within these new elements is predicted using an ANN. To make these predictions, the neural network uses displacement boundary conditions, material properties and the geometric shape of the element as input data. The examples comparing the intelligent element approach and the traditional method were performed on a computer with 12 threads of 2,6GHz and 32GB RAM. This comparison showed reductions between five and ten times in CPU time, while maintaining the accuracy of the results. The second improvement consists in the use of auxiliary solutions that consider the heterogeneity of stratified massifs. These solutions are obtained through the training of artificial neural networks that have as output the displacement in a certain point of the stratified massif due to the application of a point load inside the massif. This ANN uses as input data elastic properties and the thickness of each layer of the massif, and of the semi-infinite media, as well as the coordinates of the point load and of the point where the displacement is to be evaluated. The use of the developed ANN-based Green’s function approach only demands the discretization of the reservoir itself, thus avoiding the discretization of other regions of the massif. Furthermore, it is possible to obtain the displacement at any point of the massif due to a pore pressure variation within the reservoir without having to solve for the other points in the massif. These two characteristics increase the efficient of the method in relation to traditional methods, such as the finite element method. A numerical example was performed on a computer with 12 threads of 2,6GHz and 32GB RAM to compare the ANN-based Green’s function approach with the traditional approach. The CPU time to obtain the solution using the ANN-based Green’s function approach was five times smaller than the that required by the traditional approach.
27

[en] THE USE OF ARTIFICIAL INTELLIGENT FOR PREDICTING CONCRETE DRYING SHRINKAGE / [pt] USO DA INTELIGÊNCIA ARTIFICIAL PARA PREDIÇÃO DA RETRAÇÃO POR SECAGEM DO CONCRETO

DIOGO FARIA DE SOUSA 24 January 2024 (has links)
[pt] Devido a variações volumétricas do concreto, a compreensão dos mecanismos da retração tornou-se ponto importante para redução de fissuras e, consequentemente, da penetração de agentes agressivos. Apesar do aumento do número de estudos experimentais de retração por secagem e autógena ainda é necessário o desenvolvimento de novos modelos analíticos e numéricos para a predição da retração apoiando assim o projeto de estruturas de concreto. Este estudo propôs um modelo de redes neurais artificiais para a predição da retração por secagem do concreto. Um banco de dados nacionais contendo 689 leituras de retração por secagem em mais de 90 dosagens diferentes de concreto convencional foi construído, de acordo com a NBR 16834. O modelo teve como dados de entrada para a predição da retração o consumo e tipo de cimento, aditivo retardador e plastificante, compensador de retração, relação água/cimento e idade do concreto. O modelo apresentou coeficientes de determinação (R²) para dados de treino e teste acima de 0,998 e 0,906, respectivamente, comprovando que o modelo é uma importante ferramenta para a predição da retração por secagem para tomadas de decisão durante os estudos iniciais na fase de projeto e dosagem do concreto. / [en] Due to volume change effects of concrete, understanding the mechanisms of shrinkage has become an important point for reducing cracks and, consequently, the penetration of deleterious agents into concrete structures. Despite the increase in experimental studies on concrete drying and autogenous shrinkage there is still a need to develop new analytical and numerical methods to predict shrinkage supporting the design of concrete structures. This study proposed an Artificial Neural Network (ANN) model to predict the concrete drying shrinkage. A national database containing 689 experimental shrinkage data records, in more than 90 different mixtures of conventional concrete was constructed, in accordance with NBR 16834. The model had as input data for predicting shrinkage the consumption and type of cement, retarding and plasticizer additive, shrinkage compensator, water/cement ratio and age of concrete. The model presented coefficients of determination(R²) for training and test data above 0,998 and 0,906, proving that the model is an important tool for predicting drying shrinkage for decision making during the initial study in the design phase and concrete mix design.
28

[en] INCLUSION OF NON-SYMBOLIC HUMAN AGENCIES THROUGH DEEP LEARNING IN COMPUTATIONAL DESIGN PROCESSES / [pt] INCLUSÃO DE AGÊNCIAS HUMANAS NÃO SIMBÓLICAS ATRAVÉS DE TÉCNICAS DE APRENDIZADO PROFUNDO EM PROCESSOS DE DESIGN COMPUTACIONAL GENERATIVO

DANIEL RIBEIRO ALVES BARBOZA VIANNA 03 January 2024 (has links)
[pt] O Design Computacional Generativo é uma forma de Design que consegue gerar uma quantidade virtualmente infinita de possíveis soluções e filtrá-las através de análises computacionais. Cada análise, experimenta e gradua uma demanda, que pode ser relacionada a diversos entes e como estes afetam e são afetados por um design. Dessa maneira, essas análises podem ser entendidas como uma forma de incluir de maneira integrada diversos fatores na síntese da forma do Design. Mesmo com todo esse potencial, as abordagens baseadas no Design Computacional Generativo ainda enfrentam dificuldades na análise e na inclusão de algumas demandas, principalmente naquelas de natureza subjetiva. Isso vem mudando devido a recente introdução de técnicas de Aprendizado Profundo no Design. Essas ferramentas conseguem captar conhecimentos implícitos através da sua aptidão para encontrar padrões em grandes quantidades de dados e replicá-los. Assim, elas podem replicar a avaliação de um designer humano. Essa pesquisa foca especificamente nas análises de critérios processados pelas capacidades humanas não simbólicas. Essas capacidades são aquelas que os humanos partilham com os animais vertebrados e permitem a compreensão de significados e o acionamento de ações sem a necessidade de linguagem. Essas capacidades possuem ao mesmo tempo um caráter objetivo, porque possuem uma base biológica comum a todos os humanos; e subjetivo, porque são influenciadas pelo estado psíquico, pelas motivações e pela experiência de um sujeito. Nesse contexto, o problema identificado é que sem um embasamento teórico essas técnicas acabam se limitando a um exercício fantasioso e ingênuo de automação de Design. Portanto, esta pesquisa parte da hipótese de que um embasamento teórico de conhecimentos da Teoria Pós- humana, da neurociência Conexionista e das Teorias de Fundamentos do Design possibilita que estímulos humanos não simbólicos possam ser incluídos de maneira efetiva na síntese da forma de processos de Design Computacional Generativo através de técnicas de Aprendizado Profundo. O objetivo do trabalho é compreender como a inserção dessas novas técnicas associadas a uma fundamentação teórica específica, vão propiciar a inclusão de fatores não- simbólicas na síntese da forma em processos de Design Computacional Generativo. Para atingir esse objetivo, a pesquisa propõe a elaboração de um conjunto de diretrizes, de uma estrutura metodológica conceitual e de um experimento prático que verifique o funcionamento da avaliação através de máquinas de Aprendizado Profundo. Esses três itens partem do estado da arte da interseção entre o Design Computacional Generativo e as técnicas de Aprendizado Profundo e se baseiam nos conhecimentos Pós-humanos, da neurociência Conexionista e das teorias de Fundamentos do Design. A pesquisa entrelaça dois temas atuais e significativos para o Campo do Design. De um lado, ela busca conhecimentos que preparem os designers para as transformações que a incorporação das técnicas recentes de inteligência artificial vem causando; e de outro, ela se insere nos esforços para que o Design seja um instrumento de transformação da sociedade através de uma reaproximação com as capacidades não simbólicas. / [en] Generative Computational Design is a form of Design that manages to generate a virtually infinite amount of possible solutions and filter them through computational analysis. Each analysis experiences and grades a demand, which can be related to different entities and how they affect and are affected by a design. In this way, these analyzes can be understood as a way of including in an integrated way several factors in the synthesis of the form of Design. Even with all this potential, approaches based on Generative Computational Design still face difficulties in analyzing and including some demands, especially those of a subjective nature. This has been changing due to the recent introduction of Deep Learning techniques in Design. These tools are able to capture implicit knowledge through their ability to find patterns in large amounts of data and replicate them. Thus, they can replicate the assessment of a human designer. This research specifically focuses on the analysis of criteria processed by non-symbolic human capacities. These capabilities are those that humans share with vertebrate animals and allow them the understanding of meanings and the triggering of actions without the need for language. These capacities have at the same time an objective character, because they have a biological basis common to all humans; and subjective, because they are influenced by a subject s psychic state, motivations and experience. In this context, the problem identified is that without a theoretical basis these techniques end up being limited to a fanciful and naive exercise in Design automation and simplistic approaches to style transfer. Thus, this research starts from the hypothesis that a theoretical foundation of knowledge from the Post- Human Theory, from the connectionist neuroscience and from the Fundamental Theories of Design can enable non-symbolic human factors to be effectively included in the synthesis of the form of processes of Generative Computational Design through Deep Learning techniques. The objective of this work is to understand how the insertion of these new techniques associated with a specific theoretical foundation will enable the inclusion of non-symbolic factors in the synthesis of form in Generative Computational Design processes. To achieve this objective, the research proposes the elaboration of a conceptual methodological framework based on the state of the art of the intersection between Generative Computational Design and Deep Learning techniques associated with Post-human knowledge, connectionist neuroscience and Design Foundations theories; as well as the verification of the operation of the technique through the execution of a practical experimental procedure. The research intertwines two current and significant themes for the Field of Design. On the one hand, it seeks knowledge that prepares designers for the transformations that the incorporation of recent artificial intelligence techniques has caused; and on the other hand, it is part of efforts to make Design an instrument for transforming society through a rapprochement with non-symbolic capacities.
29

[en] AN ARCHITECTURE FOR E-HEALTH SYSTEMS THAT SUPPORTS PATIENT MONITORING AND CAREGIVERS NOTIFICATION BASED ON A REASONING MODEL TO AVOID ALARM FATIGUE / [pt] UMA ARQUITETURA PARA SISTEMAS DE SAÚDE ELETRÔNICOS QUE SUPORTA O MONITORAMENTO DE PACIENTES E A NOTIFICAÇÃO DE CUIDADORES COM BASE EM RACIOCÍNIO AUTOMÁTICO PARA EVITAR A FADIGA DE ALARME

CHRYSTINNE OLIVEIRA FERNANDES 11 May 2020 (has links)
[pt] Estimativas informam que 80 por cento a 99 por cento dos alarmes disparados em unidades hospitalares são falsos ou clinicamente insignificantes, representando uma cacofonia de sons que não apresenta perigo real aos pacientes. Estes falsos alertas podem culminar em uma sobrecarga de alertas que leva um profissional da saúde a perder eventos importantes que podem ser prejudiciais aos pacientes ou até mesmo fatais. À medida que as unidades de saúde se tornam mais dependentes de dispositivos de monitoramento que acionam alarmes, o problema da fadiga de alarme deve ser tratado como uma das principais questões, a fim de prevenir a sobrecarga de alarme para os profissionais da saúde e aumentar a segurança do paciente. O principal objetivo desta tese é propor uma solução para o problema de fadiga de alarme usando um mecanismo de raciocínio automático para decidir como notificar os membros da equipe de saúde. Nossos objetivos específicos são: reduzir o número de notificações enviadas à equipe de cuidadores; detectar alarmes falsos com base em informações de contexto do alarme; decidir o melhor cuidador a quem uma notificação deve ser atribuída. Esta tese descreve: um modelo para suportar algoritmos de raciocínio que decidem como notificar os profissionais de saúde para evitar a fadiga de alarme; uma arquitetura para sistemas de saúde que suporta recursos de monitoramento, raciocínio e notificação de pacientes; e três algoritmos de raciocínio que decidem: (i) como notificar os profissionais de saúde decidindo quando agrupar um conjunto de alarmes; (ii) se deve ou não notificar os profissionais de saúde com uma indicação de probabilidade de falso alarme; (iii) quem é o melhor cuidador a ser notificado considerando um grupo de cuidadores. Experimentos foram realizados para demonstrar que, ao fornecer um sistema de raciocínio que agrupa alarmes semelhantes e recorrentes, pode-se reduzir o total de notificações recebidas pelos cuidadores em até 99.3 por cento do total de alarmes gerados, sem perda de informação útil. Esses experimentos foram avaliados através do uso de um conjunto de dados reais de monitoramento de sinais vitais de pacientes registrados durante 32 casos cirúrgicos nos quais os pacientes foram submetidos à anestesia, no hospital Royal Adelaide. Apresentamos os resultados desse algoritmo através de gráficos gerados na linguagem R, onde mostramos se o algoritmo decidiu emitir um alarme imediatamente ou após um determinado delay. Para a tarefa de atribuição de notificações realizada pelo nosso algoritmo de raciocínio que decide sobre qual cuidador notificar, também alcançamos nossos resultados esperados, uma vez que o algoritmo priorizou o cuidador que estava disponível no momento do alarme, além de ser o mais experiente e capaz de atender à notificação. Os resultados experimentais sugerem fortemente que nossos algoritmos de raciocínio são uma estratégia útil para evitar a fadiga de alarme. Embora tenhamos avaliado nossos algoritmos em um ambiente experimental, tentamos reproduzir o contexto de um ambiente clínico utilizando dados reais de pacientes. Como trabalho futuro, visamos avaliar os resultados de nossos algoritmos utilizando condições clínicas mais realistas, aumentando, por exemplo, o número de pacientes, os parâmetros de monitoramento e os tipos de alarme. / [en] Estimates show that 80 per cent to 99 per cent of alarms set off in hospital units are false or clinically insignificant, representing a cacophony of sounds that do not present a real danger to patients. These false alarms can lead to an alert overload that causes a health care provider to miss important events that could be harmful or even life-threatening. As health care units become more dependent on monitoring devices for patient care purposes, the alarm fatigue issue has to be addressed as a major concern in order to prevent healthcare providers from undergoing alarm burden, as well as to increase patient safety. The main goal of this thesis is to propose a solution for the alarm fatigue problem by using an automatic reasoning mechanism to decide how to notify members of the health care team. Our specific goals are: to reduce the number of notifications sent to caregivers; to detect false alarms based on alarm-context information; to decide the best caregiver to whom a notification should be assigned. This thesis describes: a model to support reasoning algorithms that decide how to notify caregivers in order to avoid alarm fatigue; an architecture for health systems that supports patient monitoring, reasoning and notification capabilities; and three reasoning algorithms that decide: (i) how to notify caregivers by deciding whether to aggregate a group of alarms; (ii) whether, or not, to notify caregivers with an indication of a false alarm probability; (iii) who is the best caregiver to notify considering a group of caregivers. Experiments were used to demonstrate that by providing a reasoning system that aggregates alarms we can reduce the total of notifications received by the caregivers by up to 99.3 per cent of the total alarms generated. These experiments were evaluated through the use of a dataset comprising real patient monitoring data and vital signs recorded during 32 surgical cases where patients underwent anesthesia at the Royal Adelaide Hospital. We present the results of this algorithm by using graphs generated with the R language, which show whether the algorithm decided to deliver an alarm immediately or after a given delay. We also achieved the expected results for our reasoning algorithm that handles the notifications assignment task, since the algorithm prioritized the caregiver that was available and was the most experienced and capable of attending to the notification. The experimental results strongly suggest that our reasoning algorithms are a useful strategy to avoid alarm fatigue. Although we evaluated our algorithms in an experimental environment, we tried to reproduce the context of a clinical environment by using real-world patient data. As future work, we aim to evaluate our algorithms using more realistic clinical conditions by increasing, for example, the number of patients, monitoring parameters, and types of alarm.
30

[en] A METHOD FOR REAL-TIME GENERATION OF VIDEOKE FROM VIDEO STREAMING / [pt] UM MÉTODO PARA GERAÇÃO EM TEMPO REAL DE VIDEOKÊ A PARTIR DE STREAMING DE VÍDEO

MATHEUS ADLER SOARES PINTO 21 March 2024 (has links)
[pt] Sistemas tradicionais de karaokê geralmente utilizam vídeos pré-editados, o que limita a criação de experiências de videokê. Nesta dissertação, propomos um novo método para a geração de videokê em tempo real a partir de fontes de streaming de vídeo, chamado Gerador de Videokê. Este método combina técnicas de processamento de vídeo e áudio para gerar automaticamente videokê e é projetado para realizar o processamento em tempo real ou próximo a isso. Os principais objetivos deste estudo são formular uma metodologia para processar vídeos em fluxo contínuo e gerar videokê em tempo real, mantendo características essenciais como a supressão das vozes principais da música e a geração automática de legendas destacando palavras. Os resultados obtidos representam uma contribuição significativa para o campo da geração de multimídia em tempo real. O método foi implementado em uma arquitetura cliente/servidor para testes. Essas contribuições representam um avanço no campo dos sistemas de entretenimento e multimídia, pois introduzem uma nova metodologia para a criação de experiências de videokê. Até onde sabemos, este é o primeiro trabalho que aborda o desenvolvimento de um gerador de videokê em tempo real que realiza sincronização automática e destaque a nível de palavras, com base em uma revisão da literatura. / [en] Traditional karaoke systems typically use pre-edited videos, which limits the creation of videoke experiences. In this dissertation, we propose a new method for generating videoke in real-time from video streaming sources, called the videoke Generator. This method combines video and audio processing techniques to automatically generate videoke and is designed to perform processing in real-time or near real-time. The main objectives of this study are to formulate a methodology to process videos in continuous flow and to generate videoke in real-time while maintaining essential features such as the suppression of the main voices of the music and the automatic generation of subtitles highlighting words. The results obtained represent a significant contribution to the field of real-time multimedia generation. The method was implemented in a client/server architecture for testing. These contributions represent a step forward in the field of entertainment and multimedia systems as they introduce a new methodology for the creation of videoke experiences. To our knowledge, this is the first work that addresses the development of a real-time videoke generator that performs automatic synchronization and highlighting at the word level, based on a literature review.

Page generated in 0.0535 seconds