51 |
[en] INTEGRATING ARTIFICIAL NEURAL NETWORKS AND GREEN S FUNCTION APPROACH FOR GEOMECHANICS APPLICATION / [pt] INTEGRAÇÃO DE REDES NEURAIS ARTIFICIAIS A MÉTODOS NUMÉRICOS BASEADOS EM FUNÇÕES DE GREEN PARA APLICAÇÕES EM GEOMECÂNICAMATHEUS LOPES PERES 18 July 2023 (has links)
[pt] A modelagem de problemas relacionados a geomecânica do reservatório é tradicionalmente realizada por elementos finitos. Para utilizar esse método é preciso que o modelo englobe uma região consideravelmente superior a região em que o reservatório está inserido, além de necessitar imposição condições de contorno. Pensando em reduzir a necessidade de discretização de grandes regiões do maciço rochoso é proposto o método das funções de Green para análise geomecânica. Este método é baseado no uso de soluções analíticas clássicas (solução fundamental de Kelvin, solução fundamental de Melan, por exemplo) como soluções auxiliares para resolver problemas elasticamente heterogêneo e não lineares em meios saturados de fluidos. A não linearidade do material pode ser devido a deformações irreversíveis ou resposta de elasticidade não linear típica da análise 4D. O procedimento de solução geral depende de um método de colocação discreta e uma abordagem iterativa de ponto fixo para construir o campo de deslocamento. Esse método teve sua convergência verificada através de modelos simplificados que possuem solução analítica. Visando o avanço do desempenho computacional do método das funções de Green, foram feitas duas modificações independentes utilizando inteligência artificial. A primeira modificação é baseada na integração de dois conceitos principais: o teorema da reciprocidade e a capacidade de generalização das redes neurais artificiais. O teorema da reciprocidade é usado para formular a expressão matemática que rege o problema geomecânico, que é então discretizado no espaço em elementos inteligentes. O comportamento do campo de deformação dentro desses novos elementos é previsto usando uma rede neural artificial. Para fazer essas previsões, a rede neural usa condições de contorno de deslocamento, propriedades do material e a forma geométrica do elemento como dados de entrada. A segunda modificação consiste na utilização de soluções auxiliares que considerem a heterogeneidade de maciços estratificados. Essas soluções são obtidas através do treinamento de redes neurais artificiais que tem como dado de saída o deslocamento em um determinado ponto do maciço estratificado devido a aplicação de uma força pontual em um ponto no interior desse maciço. Para isso, as redes neurais de deslocamentos necessitam das propriedades elásticas e da espessura de cada camada do maciço bem como das coordenadas de aplicação da força pontual e do ponto onde será avaliado o deslocamento. Ao se utilizar essas soluções fundamentais baseadas em inteligência artificial é possível se obter todo o campo de deslocamentos de um problema heterogêneo e elástico de geomecânica do reservatório bastando apenas discretizar o reservatório. Cada uma das modificações do método da função de Green foi avaliada individualmente e observou-se um ganho de pelo menos 5 vezes no tempo de processo, utilizando o mesmo recurso computacional, quando se compara ao método clássico da função de Green. / [en] The analysis and simulation of problems associated with reservoir geomechanics are traditionally performed using the finite element method. However, to perform this analysis, it is necessary to consider a region much larger than the region in which the reservoir is inserted. This is done so that boundary conditions can be applied in an attempt to mimic the effect of the infinite media surrounding the reservoir. With the aim of reducing the need for discretization of large regions of the massif, a Green s functions approach was proposed for reservoir geomechanical analysis. This method is based on the use of classical analytical solutions (Kelvin s fundamental solution, Melan s fundamental solution, for example) as auxiliary solutions to solve elastically heterogeneous and nonlinear problems in fluid-saturated media. The non-linearity of the material can be due to irreversible deformations or non-linear elasticity response typical of 4D analysis. The general solution procedure relies on a discrete collocation method and an iterative fixed-point approach to build the displacement field. This method´s convergence was verified through simplified models that have analytical solutions. As the reduction in processing time is crucial for decision-makers to act in field applications, two improvements were proposed using artificial intelligence (AI) to reduce processing time of the Green s function approach. The first improvement is based on the generalization ability of artificial neural networks (ANN). Due to this characteristic, it was proposed to discretize the model with a coarse mesh of intelligent elements instead of refined mesh of traditional elements based on polynomials. The behavior of the strain field within these new elements is predicted using an ANN. To make these predictions, the neural network uses displacement boundary conditions, material properties and the geometric shape of the element as input data. The examples comparing the intelligent element approach and the traditional method were performed on a computer with 12 threads of 2,6GHz and 32GB RAM. This comparison showed reductions between five and ten times in CPU time, while maintaining the accuracy of the results. The second improvement consists in the use of auxiliary solutions that consider the heterogeneity of stratified massifs. These solutions are obtained through the training of artificial neural networks that have as output the displacement in a certain point of the stratified massif due to the application of a point load inside the massif. This ANN uses as input data elastic properties and the thickness of each layer of the massif, and of the semi-infinite media, as well as the coordinates of the point load and of the point where the displacement is to be evaluated. The use of the developed ANN-based Green’s function approach only demands the discretization of the reservoir itself, thus avoiding the discretization of other regions of the massif. Furthermore, it is possible to obtain the displacement at any point of the massif due to a pore pressure variation within the reservoir without having to solve for the other points in the massif. These two characteristics increase the efficient of the method in relation to traditional methods, such as the finite element method. A numerical example was performed on a computer with 12 threads of 2,6GHz and 32GB RAM to compare the ANN-based Green’s function approach with the traditional approach. The CPU time to obtain the solution using the ANN-based Green’s function approach was five times smaller than the that required by the traditional approach.
|
52 |
[en] THE USE OF ARTIFICIAL INTELLIGENT FOR PREDICTING CONCRETE DRYING SHRINKAGE / [pt] USO DA INTELIGÊNCIA ARTIFICIAL PARA PREDIÇÃO DA RETRAÇÃO POR SECAGEM DO CONCRETODIOGO FARIA DE SOUSA 24 January 2024 (has links)
[pt] Devido a variações volumétricas do concreto, a compreensão dos mecanismos da retração tornou-se ponto importante para redução de fissuras e, consequentemente, da penetração de agentes agressivos. Apesar do aumento do número de estudos experimentais de retração por secagem e autógena ainda é necessário o desenvolvimento de novos modelos analíticos e numéricos para a predição da retração apoiando assim o projeto de estruturas de concreto. Este estudo propôs um modelo de redes neurais artificiais para a predição da retração por secagem do concreto. Um banco de dados nacionais contendo 689 leituras de retração por secagem em mais de 90 dosagens diferentes de concreto convencional foi construído, de acordo com a NBR 16834. O modelo teve como dados de entrada para a predição da retração o consumo e tipo de cimento, aditivo retardador e plastificante, compensador de retração, relação água/cimento e idade do concreto. O modelo apresentou coeficientes de determinação (R²) para dados de treino e teste acima de 0,998 e 0,906, respectivamente, comprovando que o modelo é uma importante ferramenta para a predição da retração por secagem para tomadas de decisão durante os estudos iniciais na fase de projeto e dosagem do concreto. / [en] Due to volume change effects of concrete, understanding the mechanisms of shrinkage has become an important point for reducing cracks and, consequently, the penetration of deleterious agents into concrete structures. Despite the increase in experimental studies on concrete drying and autogenous shrinkage there is still a need to develop new analytical and numerical methods to predict shrinkage supporting the design of concrete structures. This study proposed an Artificial Neural Network (ANN) model to predict the concrete drying shrinkage. A national database containing 689 experimental shrinkage data records, in more than 90 different mixtures of conventional concrete was constructed, in accordance with NBR 16834. The model had as input data for predicting shrinkage the consumption and type of cement, retarding and plasticizer additive, shrinkage compensator, water/cement ratio and age of concrete. The model presented coefficients of determination(R²) for training and test data above 0,998 and 0,906, proving that the model is an important tool for predicting drying shrinkage for decision making during the initial study in the design phase and concrete mix design.
|
53 |
[en] INCLUSION OF NON-SYMBOLIC HUMAN AGENCIES THROUGH DEEP LEARNING IN COMPUTATIONAL DESIGN PROCESSES / [pt] INCLUSÃO DE AGÊNCIAS HUMANAS NÃO SIMBÓLICAS ATRAVÉS DE TÉCNICAS DE APRENDIZADO PROFUNDO EM PROCESSOS DE DESIGN COMPUTACIONAL GENERATIVODANIEL RIBEIRO ALVES BARBOZA VIANNA 03 January 2024 (has links)
[pt] O Design Computacional Generativo é uma forma de Design que consegue gerar uma quantidade virtualmente infinita de possíveis soluções e filtrá-las através de análises computacionais. Cada análise, experimenta e gradua uma demanda, que pode ser relacionada a diversos entes e como estes afetam e são afetados por um design. Dessa maneira, essas análises podem ser entendidas como uma forma de incluir de maneira integrada diversos fatores na síntese da forma do Design. Mesmo com todo esse potencial, as abordagens baseadas no Design Computacional Generativo ainda enfrentam dificuldades na análise e na inclusão de algumas demandas, principalmente naquelas de natureza subjetiva. Isso vem mudando devido a recente introdução de técnicas de Aprendizado Profundo no Design. Essas ferramentas conseguem captar conhecimentos implícitos através da sua aptidão para encontrar padrões em grandes quantidades de dados e replicá-los. Assim, elas podem replicar a avaliação de um designer humano. Essa pesquisa foca especificamente nas análises de critérios processados pelas capacidades humanas não simbólicas. Essas capacidades são aquelas que os humanos partilham com os animais vertebrados e permitem a compreensão de significados e o acionamento de ações sem a necessidade de linguagem. Essas capacidades possuem ao mesmo tempo um caráter objetivo, porque possuem uma base biológica comum a todos os humanos; e subjetivo, porque são influenciadas pelo estado psíquico, pelas motivações e pela experiência de um sujeito. Nesse contexto, o problema identificado é que sem um embasamento teórico essas técnicas acabam se limitando a um exercício fantasioso e ingênuo de automação de Design. Portanto, esta pesquisa parte da hipótese de que um embasamento teórico de conhecimentos da Teoria Pós- humana, da neurociência Conexionista e das Teorias de Fundamentos do Design possibilita que estímulos humanos não simbólicos possam ser incluídos de maneira efetiva na síntese da forma de processos de Design Computacional Generativo através de técnicas de Aprendizado Profundo. O objetivo do trabalho é compreender como a inserção dessas novas técnicas associadas a uma fundamentação teórica específica, vão propiciar a inclusão de fatores não- simbólicas na síntese da forma em processos de Design Computacional Generativo. Para atingir esse objetivo, a pesquisa propõe a elaboração de um conjunto de diretrizes, de uma estrutura metodológica conceitual e de um experimento prático que verifique o funcionamento da avaliação através de máquinas de Aprendizado Profundo. Esses três itens partem do estado da arte da interseção entre o Design Computacional Generativo e as técnicas de Aprendizado Profundo e se baseiam nos conhecimentos Pós-humanos, da neurociência Conexionista e das teorias de Fundamentos do Design. A pesquisa entrelaça dois temas atuais e significativos para o Campo do Design. De um lado, ela busca conhecimentos que preparem os designers para as transformações que a incorporação das técnicas recentes de inteligência artificial vem causando; e de outro, ela se insere nos esforços para que o Design seja um instrumento de transformação da sociedade através de uma reaproximação com as capacidades não simbólicas. / [en] Generative Computational Design is a form of Design that manages to generate a virtually infinite amount of possible solutions and filter them through computational analysis. Each analysis experiences and grades a demand, which can be related to different entities and how they affect and are affected by a design. In this way, these analyzes can be understood as a way of including in an integrated way several factors in the synthesis of the form of Design. Even with all this potential, approaches based on Generative Computational Design still face difficulties in analyzing and including some demands, especially those of a subjective nature. This has been changing due to the recent introduction of Deep Learning techniques in Design. These tools are able to capture implicit knowledge through their ability to find patterns in large amounts of data and replicate them. Thus, they can replicate the assessment of a human designer. This research specifically focuses on the analysis of criteria processed by non-symbolic human capacities. These capabilities are those that humans share with vertebrate animals and allow them the understanding of meanings and the triggering of actions without the need for language. These capacities have at the same time an objective character, because they have a biological basis common to all humans; and subjective, because they are influenced by a subject s psychic state, motivations and experience. In this context, the problem identified is that without a theoretical basis these techniques end up being limited to a fanciful and naive exercise in Design automation and simplistic approaches to style transfer. Thus, this research starts from the hypothesis that a theoretical foundation of knowledge from the Post- Human Theory, from the connectionist neuroscience and from the Fundamental Theories of Design can enable non-symbolic human factors to be effectively included in the synthesis of the form of processes of Generative Computational Design through Deep Learning techniques. The objective of this work is to understand how the insertion of these new techniques associated with a specific theoretical foundation will enable the inclusion of non-symbolic factors in the synthesis of form in Generative Computational Design processes. To achieve this objective, the research proposes the elaboration of a conceptual methodological framework based on the state of the art of the intersection between Generative Computational Design and Deep Learning techniques associated with Post-human knowledge, connectionist neuroscience and Design Foundations theories; as well as the verification of the operation of the technique through the execution of a practical experimental procedure. The research intertwines two current and significant themes for the Field of Design. On the one hand, it seeks knowledge that prepares designers for the transformations that the incorporation of recent artificial intelligence techniques has caused; and on the other hand, it is part of efforts to make Design an instrument for transforming society through a rapprochement with non-symbolic capacities.
|
54 |
[pt] A INTELIGÊNCIA CULTURAL NOS ESTUDOS ORGANIZACIONAIS: UMA REVISÃO BIBLIOMÉTRICA / [en] CULTURAL INTELLIGENCE ON ORGANIZATIONAL STUDIES: A BIBLIOMETRIC REVIEWANA CAROLINA MARTINI BRAZ DE MELLO E SOUZA 16 April 2019 (has links)
[pt] Em um mundo globalizado, onde pessoas de diversas culturas convivem, trocam experiências e compõem equipes de trabalho, o domínio de habilidades e competências de natureza intercultural figura como um fator relevante e atual. Neste contexto, surgiu, em 2003, o construto teórico da inteligência cultural. O objetivo geral deste trabalho foi compreender o estado da arte sobre inteligência cultural na área de Administração e identificar os principais grupos de temas que vêm sendo explorados na academia (sua evolução, foco de interesse e estágio atu-al), a fim de propor um framework teórico e uma agenda de pesquisa futura. Para tal, efetuou-se uma revisão bibliométrica dos artigos científicos publicados em inglês, na base de dados SCOPUS, de 2004 a 2018. A partir de uma amostra final de 262 artigos, realizou-se (i) com a utilização do software Microsoft Excel, uma análise estatística dos dados (descritiva), a fim de verificar o impacto da pesquisa de IC na área de Administração, bem como mapear a produção científica a partir de diferentes unidades de análise (autor, afiliação, país, etc); e (ii) com a utiliza-ção do software SciMAT, uma análise bibiliométrica (de citação e de coocorrên-cia de palavras) para identificar as principais temáticas exploradas até o momento (clusters) e sua evolução temporal. Os resultados apontaram alguns temas como oportunidade para pesquisas futuras, destacando-se estudos sobre inteligência cul-tural e: outros tipos de inteligência, negociação intercultural, treinamento e desen-volvimento intercultural, performance organizacional e estratégia, gestão do con-flito, inteligência cultural organizacional, antecedentes da inteligência cultural; dentre outros. / [en] Mastering intercultural skills in a globalized world where people from dif-ferent cultural backgrounds are trying to live together, exchange experiences and join multicultural work teams is becoming key to achieve best results. In 2003, cultural intelligence emerges as a relevant construct to address this issue. The main goal of the present work was to understand the state of art on cultural intelli-gence in the Management field as well as to identify the main themes explored so far (clusters), their evolution, focus of interest and current stage in order to pro-pose a theoretical framework and a future research agenda. A bibliometric review of the scientific papers (articles and reviews) published in English in SCOPUS database was carried out, comprising a period of fifteen years (from 2004 to 2018). In order to verify the impact of the CI research in the Management field, as well as to map scientific production considering different units of analysis (like author, affiliation, country, etc) a statistical descriptive analysis of the final sam-ple data (262 documents) was carried out using the Microsoft Excel software. A bibilometric analysis (citation and co-word) using SciMAT software was also a choice to identify clusters and their evolution through time. The results pointed to some themes as research avenues opportunity to be explored, such as cultural in-telligence and: other types of intelligence, intercultural negotiation, intercultural training and development, organizational performance and strategy, conflict man-agement, organizational cultural intelligence, antecedents of cultural intelligence; among others.
|
55 |
[en] LEADERSHIP IN A GLOBAL WORLD: ATTRIBUTES THAT AFFECT EXPATRIATE S ENGAGEMENT AND BURNOUT / [pt] LIDERANÇA EM UM MUNDO GLOBAL: ATRIBUTOS QUE AFETAM O ENGAJAMENTO E BURNOUT EM EXPATRIADOSSYLVIA FREITAS MELLO 29 April 2019 (has links)
[pt] Este estudo tem como objetivo entender se atributos do líder influenciam as atitudes e experiências de profissionais trabalhando em ambientes internacionais multiculturais. Propomos e analisamos o impacto da liderança com foco em propósito e da inteligência cultural do líder no engajamento e burnout de expatriados corporativos, atualmente em designações internacionais de longo prazo. Vinte e seis empresas foram convidadas a participar da pesquisa. Um total de 112 expatriados de 18 nacionalidades, e trabalhando em 20 países responderam ao questionário. Os resultados indicam que expatriados corporativos que trabalham com líderes com alta inteligência cultural demonstraram baixos níveis de burnout, e que expatriados que perceberam que seus líderes são movidos por um propósito demonstraram níveis mais altos de engajamento. / [en] This study aims to understand if leader attributes influence the attitudes and experiences of professionals working in international cultural settings. I propose and analyze the impact of purpose-led leadership and leaders cultural intelligence on engagement and burnout of corporate expatriates currently undertaking long
term international assignments. Twenty-six companies were invited to participate in the survey. A total of 112 expatriates, from 18 nationalities, and working in 20 countries fully answered the questionnaire. Results indicate that corporate expatriates working with leaders with higher cultural intelligence demonstrated lower levels of burnout, and that expatriates who perceived that their superiors were guided by a purpose demonstrated higher levels of engagement.
|
56 |
[en] AN ARCHITECTURE FOR E-HEALTH SYSTEMS THAT SUPPORTS PATIENT MONITORING AND CAREGIVERS NOTIFICATION BASED ON A REASONING MODEL TO AVOID ALARM FATIGUE / [pt] UMA ARQUITETURA PARA SISTEMAS DE SAÚDE ELETRÔNICOS QUE SUPORTA O MONITORAMENTO DE PACIENTES E A NOTIFICAÇÃO DE CUIDADORES COM BASE EM RACIOCÍNIO AUTOMÁTICO PARA EVITAR A FADIGA DE ALARMECHRYSTINNE OLIVEIRA FERNANDES 11 May 2020 (has links)
[pt] Estimativas informam que 80 por cento a 99 por cento dos alarmes disparados em unidades hospitalares são falsos ou clinicamente insignificantes, representando uma cacofonia de sons que não apresenta perigo real aos pacientes. Estes falsos alertas podem culminar em uma sobrecarga de alertas que leva um profissional da saúde a perder eventos importantes que podem ser prejudiciais aos pacientes ou até mesmo fatais. À medida que as unidades de saúde se tornam mais dependentes de dispositivos de monitoramento que acionam alarmes, o problema da fadiga de alarme deve ser tratado como uma das principais questões, a fim de prevenir a sobrecarga de alarme para os profissionais da saúde e aumentar a segurança do paciente. O principal objetivo desta tese é propor uma solução para o problema de fadiga de alarme usando um mecanismo de raciocínio automático para decidir como notificar os membros da equipe de saúde. Nossos objetivos específicos são: reduzir o número de notificações enviadas à equipe de cuidadores; detectar alarmes falsos com base em informações de contexto do alarme; decidir o melhor cuidador a quem uma notificação deve ser atribuída. Esta tese descreve: um modelo para suportar algoritmos de raciocínio que decidem como notificar os profissionais de saúde para evitar a fadiga de alarme; uma arquitetura para sistemas de saúde que suporta recursos de monitoramento, raciocínio e notificação de pacientes; e três algoritmos de raciocínio que decidem: (i) como notificar os profissionais de saúde decidindo quando agrupar um conjunto de alarmes; (ii) se deve ou não notificar os profissionais de saúde com uma indicação de probabilidade de falso alarme; (iii) quem é o melhor cuidador a ser notificado considerando um grupo de cuidadores. Experimentos foram realizados para demonstrar que, ao fornecer um sistema de raciocínio que agrupa alarmes semelhantes e recorrentes, pode-se reduzir o total de notificações recebidas pelos cuidadores em até 99.3 por cento do total de alarmes gerados, sem perda de informação útil. Esses experimentos foram avaliados através do uso de um conjunto de dados reais de monitoramento de sinais vitais de pacientes registrados durante 32 casos cirúrgicos nos quais os pacientes foram submetidos à anestesia, no hospital Royal Adelaide. Apresentamos os resultados desse algoritmo através de gráficos gerados na linguagem R, onde mostramos se o algoritmo decidiu emitir um alarme imediatamente ou após um determinado delay. Para a tarefa de atribuição de notificações realizada pelo nosso algoritmo de raciocínio que decide sobre qual cuidador notificar, também alcançamos nossos resultados esperados, uma vez que o algoritmo priorizou o cuidador que estava disponível no momento do alarme, além de ser o mais experiente e capaz de atender à notificação. Os resultados experimentais sugerem fortemente que nossos algoritmos de raciocínio são uma estratégia útil para evitar a fadiga de alarme. Embora tenhamos avaliado nossos algoritmos em um ambiente experimental, tentamos reproduzir o contexto de um ambiente clínico utilizando dados reais de pacientes. Como trabalho futuro, visamos avaliar os resultados de nossos algoritmos utilizando condições clínicas mais realistas, aumentando, por exemplo, o número de pacientes, os parâmetros de monitoramento e os tipos de alarme. / [en] Estimates show that 80 per cent to 99 per cent of alarms set off in hospital units are false or clinically insignificant, representing a cacophony of sounds that do not present a real danger to patients. These false alarms can lead to an alert overload that causes a health care provider to miss important events that could be harmful or even life-threatening. As health care units become more dependent on monitoring devices for patient care purposes, the alarm fatigue issue has to be addressed as a major concern in order to prevent healthcare providers from undergoing alarm burden, as well as to increase patient safety. The main goal of this thesis is to propose a solution for the alarm fatigue problem by using an automatic reasoning mechanism to decide how to notify members of the health care team. Our specific goals are: to reduce the number of notifications sent to caregivers; to detect false alarms based on alarm-context information; to decide the best caregiver to whom a notification should be assigned. This thesis describes: a model to support reasoning algorithms that decide how to notify caregivers in order to avoid alarm fatigue; an architecture for health systems that supports patient monitoring, reasoning and notification capabilities; and three reasoning algorithms that decide: (i) how to notify caregivers by deciding whether to aggregate a group of alarms; (ii) whether, or not, to notify caregivers with an indication of a false alarm probability; (iii) who is the best caregiver to notify considering a group of caregivers. Experiments were used to demonstrate that by providing a reasoning system that aggregates alarms we can reduce the total of notifications received by the caregivers by up to 99.3 per cent of the total alarms generated. These experiments were evaluated through the use of a dataset comprising real patient monitoring data and vital signs recorded during 32 surgical cases where patients underwent anesthesia at the Royal Adelaide Hospital. We present the results of this algorithm by using graphs generated with the R language, which show whether the algorithm decided to deliver an alarm immediately or after a given delay. We also achieved the expected results for our reasoning algorithm that handles the notifications assignment task, since the algorithm prioritized the caregiver that was available and was the most experienced and capable of attending to the notification. The experimental results strongly suggest that our reasoning algorithms are a useful strategy to avoid alarm fatigue. Although we evaluated our algorithms in an experimental environment, we tried to reproduce the context of a clinical environment by using real-world patient data. As future work, we aim to evaluate our algorithms using more realistic clinical conditions by increasing, for example, the number of patients, monitoring parameters, and types of alarm.
|
57 |
[en] A METHOD FOR REAL-TIME GENERATION OF VIDEOKE FROM VIDEO STREAMING / [pt] UM MÉTODO PARA GERAÇÃO EM TEMPO REAL DE VIDEOKÊ A PARTIR DE STREAMING DE VÍDEOMATHEUS ADLER SOARES PINTO 21 March 2024 (has links)
[pt] Sistemas tradicionais de karaokê geralmente utilizam vídeos pré-editados,
o que limita a criação de experiências de videokê. Nesta dissertação, propomos
um novo método para a geração de videokê em tempo real a partir de fontes
de streaming de vídeo, chamado Gerador de Videokê. Este método combina
técnicas de processamento de vídeo e áudio para gerar automaticamente
videokê e é projetado para realizar o processamento em tempo real ou próximo
a isso. Os principais objetivos deste estudo são formular uma metodologia
para processar vídeos em fluxo contínuo e gerar videokê em tempo real,
mantendo características essenciais como a supressão das vozes principais da
música e a geração automática de legendas destacando palavras. Os resultados
obtidos representam uma contribuição significativa para o campo da geração de
multimídia em tempo real. O método foi implementado em uma arquitetura
cliente/servidor para testes. Essas contribuições representam um avanço no
campo dos sistemas de entretenimento e multimídia, pois introduzem uma nova
metodologia para a criação de experiências de videokê. Até onde sabemos, este
é o primeiro trabalho que aborda o desenvolvimento de um gerador de videokê
em tempo real que realiza sincronização automática e destaque a nível de
palavras, com base em uma revisão da literatura. / [en] Traditional karaoke systems typically use pre-edited videos, which limits
the creation of videoke experiences. In this dissertation, we propose a new
method for generating videoke in real-time from video streaming sources, called
the videoke Generator. This method combines video and audio processing
techniques to automatically generate videoke and is designed to perform
processing in real-time or near real-time. The main objectives of this study
are to formulate a methodology to process videos in continuous flow and to
generate videoke in real-time while maintaining essential features such as the
suppression of the main voices of the music and the automatic generation
of subtitles highlighting words. The results obtained represent a significant
contribution to the field of real-time multimedia generation. The method was
implemented in a client/server architecture for testing. These contributions
represent a step forward in the field of entertainment and multimedia systems
as they introduce a new methodology for the creation of videoke experiences.
To our knowledge, this is the first work that addresses the development of
a real-time videoke generator that performs automatic synchronization and
highlighting at the word level, based on a literature review.
|
58 |
[pt] A INTELIGÊNCIA ARTIFICIAL NOS DISCURSOS DAS EDTECHS NO BRASIL / [en] ARTIFICIAL INTELLIGENCE IN THE DISCOURSES OF EDTECHSGISELLE DE MORAIS LIMA 08 April 2024 (has links)
[pt] Este trabalho procura olhar para as tecnologias educacionais – especialmente
aquelas com Inteligência Artificial (IA), a grande promessa da atualidade – a partir
de questionamentos críticos, evitando a ideia de neutralidade que comumente é
atribuída a elas, inclusive na literatura acadêmica. O objetivo geral é analisar
discursos sobre IA promovidos por empresas de tecnologia educacional (edtechs)
que oferecem tecnologias voltadas para o ensino-aprendizagem. Os específicos são:
1) examinar como a IA é concebida nos discursos das edtechs; 2) investigar os
papéis atribuídos às tecnologias nos processos de ensino e aprendizagem e 3)
caracterizar as concepções de educação veiculadas nesses discursos. A Análise de
Discurso Crítica foi o referencial teórico-metodológico que orientou as análises,
partindo das categorias dos pressupostos, escolhas lexicais e modalidade. O corpus
é composto de textos retirados dos sites e de dezessete postagens do Instagram de
três empresas selecionadas: a Letrus, a Educacross e a Jovens Gênios. Nos discursos
analisados, a IA é concebida como solução para diversos problemas educacionais e
posicionada ora como sujeito, ora como ferramenta para a aprendizagem. A IA
aparece com o papel de personalizar a educação, tornando a aprendizagem mais
significativa e a educação mais objetiva e eficiente, baseada em dados, democrática
e inovadora, além de capaz de suprir deficiências do trabalho docente. As empresas
difundem uma concepção de educação baseada em desempenho, organizada por
competências e habilidades, individualista, marginalizando a relação entre
educador e estudante. Os discursos expressam um ideal de educação que valoriza a
qualificação individual em detrimento das dimensões de socialização e
subjetivação, portanto distante de ideais de formação ampla e transformação social. / [en] This work seeks to address educational technologies through critical questions, avoiding the idea of neutrality that is commonly attributed to them, including in academic literature. The general objective is to analyze discourses on artificial intelligence (AI) promoted by educational technology companies (edtechs) that offer technologies aimed at teaching-learning. The specific objectives are: 1) to examine how AI is conceived in edtech discourses; 2) to investigate the roles assigned by edtechs to technologies in teaching and learning processes; and 3) to characterize the conceptions of education conveyed by these discourses. Critical Discourse Analysis was the theoretical-methodological framework that guided the analyses, starting from the categories of assumptions, lexical choices and modality. The corpus is composed of texts taken from websites and seventeen Instagram posts from three selected companies: Letrus, Educacross and Jovens Gênios. In the material analyzed, AI is conceived as a solution to various educational problems and positioned either as a subject or as a tool for learning. AI appears with the role of personalizing education, making learning more meaningful and education more objective and efficient, based on data, democratic and innovative, in addition to being able to overcome deficiencies in teaching. Companies disseminate a conception of education based on performance, organized by skills and abilities, markedly individualistic, marginalizing the relationship between educator and student. The discourses express an ideal of education that values individual qualification to the detriment of the dimensions of socialization and subjectivation, therefore far from ideals of broad training and social transformation.
|
59 |
[en] INTTELIGENT SYSTEM TO SUPPORT BASKETBALL COACHES / [pt] SISTEMA INTELIGENTE DE APOIO A TÉCNICOS DE BASQUETEEDUARDO VERAS ARGENTO 12 September 2024 (has links)
[pt] Em meio ao avanço expressivo da tecnologia e às evoluções contínuas
observadas no ramo de inteligência artificial, esta última se mostrou ter
potencial para ser aplicada a diferentes setores da sociedade. No contexto de
extrema competitividade e relevância crescente nos esportes mais famosos ao
redor do mundo, o basquete se apresenta como um esporte interessante para a
aplicação de mecanismos de apoio à decisão capazes de aumentar a eficácia e
consistência de vitórias dos times nos campeonatos. Diante desse contexto, este
estudo propõe o desenvolvimento de sistemas de apoio à decisão baseados em
modelos de redes neurais e k-Nearest Neighbors (kNNs). O objetivo é avaliar,
para cada substituição durante um jogo de basquete, qual grupo de jogadores
em quadra, conhecido por quinteto, apresenta mais chances de ter uma
maior vantagem sobre o adversário. Para tal, foram treinados modelos para
classificar, ao final de uma sequência de posses de bola, a equipe que conseguiria
vantagem, e prever a magnitude dessa vantagem. A base de dados foi obtida de
partidas do Novo Basquete Brasil (NBB), envolvendo estatísticas de jogadores,
detalhes de jogo e contextos diversos. O modelo apresentou uma acurácia de
76,99 por cento das posses de bola nas projeções de vantagem entre duas equipes em
quadra, demonstrando o potencial da utilização de métodos de inteligência
computacional na tomada de decisões em esportes profissionais. Por fim, o
trabalho ressalta a importância do uso de tais ferramentas em complemento à
experiência humana, instigando pesquisas futuras para o desenvolvimento de
modelos ainda mais sofisticados e eficazes na tomada de decisões no âmbito
esportivo. / [en] In light of the recent significant growth in technological capabilities andthe observed advancements in the field of computational intelligence, the latterhas demonstrated potential for application in various sectors of society. Inthe context of extreme competitiveness and increasing relevance in the mostfamous sports around the world, basketball presents itself as an interestingsport for the application of decision-support mechanisms capable of enhancingthe efficacy and consistency of team victories in championships. In this context,this study proposes the development of decision-support systems, such asneural networks and k-Nearest Neighbors (kNNs). The goal is to evaluate, foreach substitution during a match, which group of players in the field, knownas lineup, presents the most probability to be superior to their opponent. Forthis, models were trained to predict, during a sequence of possessions, theteam that would have advantage and the magnitude of this advantage. Thedatabase was obtained from Novo Basquete Brasil (NBB) matches, involvingplayers statistics, match details and different contexts.. The model achieved anaccuracy of 76,99 percent in projections of superiority between the playing lineups,demonstrating the potential of using computational intelligence methods indecision-making applied to professional sports. Finally, the study highlightsthe importance of using such tools in conjunction with human experience,encouraging future research for the development of even more sophisticatedand effective models for decision-making in the sports field.
|
60 |
[en] DESIGN OF ORGANIC LIGHT-EMITTING DIODES SUPPORTED BY COMPUTACIONAL INTELLIGENCE TECHNIQUES / [pt] PROJETO DE DIODOS ORGÂNICOS EMISSORES DE LUZ COM O AUXÍLIO DE TÉCNICAS DA INTELIGÊNCIA COMPUTACIONALCARLOS AUGUSTO FEDERICO DE FARIA ROCHA COSTA 10 September 2018 (has links)
[pt] Esta dissertação trata da investigação, simulação e otimização da estrutura de Diodos Orgânicos Emissores de Luz Multicamadas (ML-OLEDs) através da utilização de técnicas da Inteligência Computacional. Além disso, um desses métodos, chamado Otimização por Colônia de Formigas (ACO), foi implementado com base em um modelo proposto na literatura e aplicado pela primeira vez na otimização de diodos orgânicos. OLEDs são dispositivos optoeletrônicos nanométricos fabricados a partir de materiais semicondutores
orgânicos. Ao contrário das tecnologias tradicionais, eles conjugam elevada luminescência e baixo consumo energético. Na fabricação de um OLED, o número configurações possíveis é quase ilimitado, em função da quantidade de parâmetros que se pode variar. Isso faz com que determinação da arquitetura ótima torne-se uma tarefa não trivial. Para simular os OLEDs foram empregados dois modelos distintos de simulação. Assim, as Redes Neurais Artificiais (RNA) foram empregadas com o objetivo de emular um dos simuladores e acelerar o cálculo da densidade de corrente. Os Algoritmos Genéticos (AG) foram aplicados na determinação dos valores ótimos de espessura das camadas, mobilidades dos portadores de carga e concentração dos materiais orgânicos em OLEDs com duas camadas, enquanto o ACO foi aplicado para encontrar os valores de concentração em OLEDs com duas e cinco camadas, constituindo assim três estudos de caso. Os resultados encontrados foram promissores, sobretudo no caso das espessuras,
onde houve uma confirmação experimental do dispositivo com duas camadas. / [en] This dissertation deals with the research, simulation and optimization of the structure of Multilayer Organic Light Emitting Diodes (ML-OLEDs) by using Computational Intelligence techniques. In addition, one of these methods, called Ant Colony Optimization (ACO), was implemented based on a model proposed in the literature and applied for the first time in the optimization of organic diodes. OLEDs are nanometric optoelectronic devices fabricated from organic semiconducting materials. Unlike traditional technologies, they combine high luminance and low power consumption. In the manufacturing of an OLED, the number of possible configurations is almost unlimited due to the number of parameters that can modified. Because of this the determination of the optimal architecture becomes a non-trivial task. Two different simulation models were used to simulate the OLEDs. Thus, the Artificial Neural Networks (ANN) were employed in order to work as the proxy of the commercial simulator and to accelerate the calculation of the current density. The Genetic Algorithms (GA) were applied to determine the optimal values of thickness of the layers, the charge carrier mobility and the concentration of the organic materials in OLEDs with two layers, while the ACO was applied to find the values of concentration in OLEDs with two and five layers, thus establishing three case studies. The employed strategy has proved to be promising, since it has show good results for two case studies, especially for the optimization of the thickness, where there was an
experimental confirmation of the bilayer device.
|
Page generated in 0.0571 seconds