Spelling suggestions: "subject:"inteligência artificial."" "subject:"inteligentes artificial.""
651 |
[pt] DIREITO À EXPLICAÇÃO E PROTEÇÃO DE DADOS PESSOAIS NAS DECISÕES POR ALGORITMOS DE INTELIGÊNCIA ARTIFICIAL / [en] RIGHT TO AN EXPLANATION AND DATA PROTECTION IN DECISIONS BY ARTIFICIAL INTELLIGENCE ALGORITHMSISABELLA ZALCBERG FRAJHOF 26 October 2022 (has links)
[pt] Em um mundo mediado por algoritmos, em que espaços de tomada de decisão
antes destinados a humanos passam a ser dominados por estes artefatos, surge uma
demanda para que estas decisões algorítmicas sejam explicáveis. Este desafio ganha
uma camada de complexidade quando há o uso de técnicas de inteligência artificial, em
especial, a aplicação de modelos de aprendizado de máquina, diante da opacidade e
inescrutabilidade do modo de funcionamento e dos resultados gerados de alguns tipos
destes algoritmos. Neste sentido, esta tese tem início com a apresentação do conceito e
dos desafios da inteligência artificial e do aprendizado de máquina para o Direito,
particularmente para direitos fundamentais (i.e. proteção de dados pessoais,
privacidade, liberdade, autonomia e igualdade). Em seguida, é compartilhada a
discussão envolvendo o direito à explicação quando do seu surgimento, e como a sua
previsão na LGPD poderá ser interpretada à luz dos aprendizados e interpretações já
colhidos no âmbito do GDPR. Ainda, serão analisados como os principais desafios para
os direitos fundamentais que são colocados por tais algoritmos de tomada de decisão
podem ser resumidos sob os princípios de transparência, prestação de contas e
responsabilização e justiça/igualdade. É proposta uma abordagem multifacetada e
multidisciplinar, a ser aplicada em diferentes momentos, para assegurar a observância
de tais princípios no desenvolvimento e uso de algoritmos de tomada de decisão de
aprendizado de máquina. Por fim, propõe-se que a garantia de um direito à explicação,
atualmente inserido em uma discussão mais ampla de prestação de contas e
responsabilização, deve atender a uma perspectiva de mérito e de procedimento. São
identificados os diferentes tipos de conteúdos que têm sido mapeados como passíveis
de serem exigidos a título de explicação, e os valores e direitos que um direito à
explicação visa proteger, demonstrado, ao final, a importância de que este conteúdo
possa estar sujeito a algum tipo de escrutínio público. / [en] In a world mediated by algorithms, in which decision-making spaces previously
destined for humans are now dominated by these artifacts, urges a demand for these
algorithmic decisions to be explainable. This challenge gains a layer of complexity
when artificial intelligence techniques are used, in particular, the application of
machine learning models, given the opacity and inscrutability of the operating mode
and the results generated by some types of these algorithms. In this sense, this thesis
begins with the presentation of the concept and challenges of artificial intelligence and
machine learning for the area of Law, particularly for fundamental rights (i.e. data
protection, privacy, freedom, autonomy and equality). Then, the discussion involving
the arise of a right to explanation is presented, and how its provision in the LGPD can
be interpreted in the light of the lessons learned and interpretations already gathered
under the GDPR. Furthermore, it will be analyzed how the main challenges for
fundamental rights that are posed by such decision-making algorithms can be
summarized under the principles of transparency, accountability and justice/equality.
A multifaceted and multidisciplinary approach is proposed, to be applied at different
moments in time, to ensure that such principles are incorporated during the
development and use of machine learning decision-making algorithms. Finally, this
thesis proposed that guaranteeing a right to explanation, which is currently allocated in
a broader discussion involving accountability, must take into account a perspective of
merit and procedure. The different types of content that have been mapped as likely to
be required as an explanation are identified, as well as the values and rights that a right
to explanation aims to protect, demonstrating, finally, the importance that such content
be subject to public scrutiny.
|
652 |
Propuesta de mejora de la priorización de pasivos ambientales mineros en el Perú mediante una metodología basada en inteligencia artificial con Grey SystemsBerrospi Jorge, Bryan Rodrigo 11 September 2020 (has links)
La minería es desde hace unas décadas una parte fundamental del desarrollo
económico en este país, dicho desarrollo trajo consigo muchas cosas positivas; sin
embargo, debido a la poca preocupación ambiental que existía hasta hace unos años,
se generaron aspectos negativos precisamente en este ámbito, como son los pasivos
ambientales.
Estos pasivos se generaron debido a que no existía una legislación que regulara el cese
o finalización de una operación minera, por lo cual, en muchas ocasiones al acabar la
operación se abandonaba las labores tal como estaban, generando así un riesgo para
la salud y seguridad humana así también como para la integridad de los ecosistemas.
En la actualidad se han registrado un total de 8448 pasivos ambientales a lo largo del
territorio nacional, afortunadamente existe una preocupación por parte del estado para
poder tratar esta problemática, habiendo creado una metodología de clasificación de
pasivos ambientales para poder priorizarlos debido a su importancia; sin embargo, esta
metodología se basa en estadística y teniendo en cuenta que en la actualidad se existen
otros métodos de clasificación, esta tesis se propone plantear una metodología basada
en inteligencia artificial con grey systems para mejorar la priorización de pasivos
ambientales mineros en el Perú.
La metodología de Grey Clustering está basada en inteligencia artificial, la cual es una
combinación de matemática con programación para el tratamiento de datos, con dicha
metodología se procesó la información obtenida de la Dirección General de Asuntos
Ambientales Mineros (DGAAM) del Ministerio de Energía y Minas, obteniendo una
clasificación alternativa, nuevas puntuaciones para los pasivos además de nuevos
rangos para clasificarlos según el nivel de riesgo.
Se concluyó que con la nueva clasificación los pasivos que pertenecen al nivel de riesgo
muy alto disminuyen en un 97% al utilizar la metodología de Grey Clustering y la
clasificación porcentual, mientras que los que los pasivos que pertenecen al nivel de
riesgo alto aumentan en un 42% con la nueva clasificación.
Cabe destacar que la metodología y clasificación planteadas en este trabajo aún se
encuentra en análisis, por lo que los resultados presentados en esta tesis son de manera
preliminar y estos aún pueden ser mejorados. / Mining has been a fundamental part of economic development in this country for a few
decades, this development brought with it many positive things; however, due to the lack
of environmental concern that existed until a few years ago, negative aspects were
generated precisely in this area, such as environmental liabilities.
These liabilities were generated because there was no legislation regulating the
cessation or completion of a mining operation, so that many times at the end of the
operation work was abandoned as they were, thus creating a risk to human health and
safety as well as to the integrity of ecosystems.
A total of 8448 environmental liabilities have now been recorded throughout the national
territory, fortunately there is a concern on the part of the state to be able to address this
problem, having created a methodology for classifying environmental liabilities to be able
to prioritize them because of their importance; however, this methodology is based on
statistics and taking into account that there are currently other classification methods,
this thesis is proposed to propose a methodology based on artificial intelligence with grey
systems to improve the prioritization of mining environmental liabilities in Peru.
Grey Clustering's methodology is based on artificial intelligence, which is a combination
of mathematics with programming for data processing, with this methodology the
information obtained from the “Dirección General de Asuntos Ambientales Mineros”
(DGAAM) from the Ministry of Energy and Mines, was processed obtaining an alternative
classification, new scores for liabilities in addition to new ranges to classify them
according to the level of risk.
It was concluded that with the new classification, liabilities belonging to the very high-risk
level decrease by 97% when using the Grey Clustering methodology and the percentage
rating, while those that are liabilities belonging to the high-risk level increase by 42% with
the new classification.
It should be noted that the methodology and classification raised in this work is still in
analysis, so the results presented in this thesis are preliminary and these can still be
improved.
|
653 |
[en] INTEGRATING ARTIFICIAL NEURAL NETWORKS AND GREEN S FUNCTION APPROACH FOR GEOMECHANICS APPLICATION / [pt] INTEGRAÇÃO DE REDES NEURAIS ARTIFICIAIS A MÉTODOS NUMÉRICOS BASEADOS EM FUNÇÕES DE GREEN PARA APLICAÇÕES EM GEOMECÂNICAMATHEUS LOPES PERES 18 July 2023 (has links)
[pt] A modelagem de problemas relacionados a geomecânica do reservatório é tradicionalmente realizada por elementos finitos. Para utilizar esse método é preciso que o modelo englobe uma região consideravelmente superior a região em que o reservatório está inserido, além de necessitar imposição condições de contorno. Pensando em reduzir a necessidade de discretização de grandes regiões do maciço rochoso é proposto o método das funções de Green para análise geomecânica. Este método é baseado no uso de soluções analíticas clássicas (solução fundamental de Kelvin, solução fundamental de Melan, por exemplo) como soluções auxiliares para resolver problemas elasticamente heterogêneo e não lineares em meios saturados de fluidos. A não linearidade do material pode ser devido a deformações irreversíveis ou resposta de elasticidade não linear típica da análise 4D. O procedimento de solução geral depende de um método de colocação discreta e uma abordagem iterativa de ponto fixo para construir o campo de deslocamento. Esse método teve sua convergência verificada através de modelos simplificados que possuem solução analítica. Visando o avanço do desempenho computacional do método das funções de Green, foram feitas duas modificações independentes utilizando inteligência artificial. A primeira modificação é baseada na integração de dois conceitos principais: o teorema da reciprocidade e a capacidade de generalização das redes neurais artificiais. O teorema da reciprocidade é usado para formular a expressão matemática que rege o problema geomecânico, que é então discretizado no espaço em elementos inteligentes. O comportamento do campo de deformação dentro desses novos elementos é previsto usando uma rede neural artificial. Para fazer essas previsões, a rede neural usa condições de contorno de deslocamento, propriedades do material e a forma geométrica do elemento como dados de entrada. A segunda modificação consiste na utilização de soluções auxiliares que considerem a heterogeneidade de maciços estratificados. Essas soluções são obtidas através do treinamento de redes neurais artificiais que tem como dado de saída o deslocamento em um determinado ponto do maciço estratificado devido a aplicação de uma força pontual em um ponto no interior desse maciço. Para isso, as redes neurais de deslocamentos necessitam das propriedades elásticas e da espessura de cada camada do maciço bem como das coordenadas de aplicação da força pontual e do ponto onde será avaliado o deslocamento. Ao se utilizar essas soluções fundamentais baseadas em inteligência artificial é possível se obter todo o campo de deslocamentos de um problema heterogêneo e elástico de geomecânica do reservatório bastando apenas discretizar o reservatório. Cada uma das modificações do método da função de Green foi avaliada individualmente e observou-se um ganho de pelo menos 5 vezes no tempo de processo, utilizando o mesmo recurso computacional, quando se compara ao método clássico da função de Green. / [en] The analysis and simulation of problems associated with reservoir geomechanics are traditionally performed using the finite element method. However, to perform this analysis, it is necessary to consider a region much larger than the region in which the reservoir is inserted. This is done so that boundary conditions can be applied in an attempt to mimic the effect of the infinite media surrounding the reservoir. With the aim of reducing the need for discretization of large regions of the massif, a Green s functions approach was proposed for reservoir geomechanical analysis. This method is based on the use of classical analytical solutions (Kelvin s fundamental solution, Melan s fundamental solution, for example) as auxiliary solutions to solve elastically heterogeneous and nonlinear problems in fluid-saturated media. The non-linearity of the material can be due to irreversible deformations or non-linear elasticity response typical of 4D analysis. The general solution procedure relies on a discrete collocation method and an iterative fixed-point approach to build the displacement field. This method´s convergence was verified through simplified models that have analytical solutions. As the reduction in processing time is crucial for decision-makers to act in field applications, two improvements were proposed using artificial intelligence (AI) to reduce processing time of the Green s function approach. The first improvement is based on the generalization ability of artificial neural networks (ANN). Due to this characteristic, it was proposed to discretize the model with a coarse mesh of intelligent elements instead of refined mesh of traditional elements based on polynomials. The behavior of the strain field within these new elements is predicted using an ANN. To make these predictions, the neural network uses displacement boundary conditions, material properties and the geometric shape of the element as input data. The examples comparing the intelligent element approach and the traditional method were performed on a computer with 12 threads of 2,6GHz and 32GB RAM. This comparison showed reductions between five and ten times in CPU time, while maintaining the accuracy of the results. The second improvement consists in the use of auxiliary solutions that consider the heterogeneity of stratified massifs. These solutions are obtained through the training of artificial neural networks that have as output the displacement in a certain point of the stratified massif due to the application of a point load inside the massif. This ANN uses as input data elastic properties and the thickness of each layer of the massif, and of the semi-infinite media, as well as the coordinates of the point load and of the point where the displacement is to be evaluated. The use of the developed ANN-based Green’s function approach only demands the discretization of the reservoir itself, thus avoiding the discretization of other regions of the massif. Furthermore, it is possible to obtain the displacement at any point of the massif due to a pore pressure variation within the reservoir without having to solve for the other points in the massif. These two characteristics increase the efficient of the method in relation to traditional methods, such as the finite element method. A numerical example was performed on a computer with 12 threads of 2,6GHz and 32GB RAM to compare the ANN-based Green’s function approach with the traditional approach. The CPU time to obtain the solution using the ANN-based Green’s function approach was five times smaller than the that required by the traditional approach.
|
654 |
[en] THE USE OF ARTIFICIAL INTELLIGENT FOR PREDICTING CONCRETE DRYING SHRINKAGE / [pt] USO DA INTELIGÊNCIA ARTIFICIAL PARA PREDIÇÃO DA RETRAÇÃO POR SECAGEM DO CONCRETODIOGO FARIA DE SOUSA 24 January 2024 (has links)
[pt] Devido a variações volumétricas do concreto, a compreensão dos mecanismos da retração tornou-se ponto importante para redução de fissuras e, consequentemente, da penetração de agentes agressivos. Apesar do aumento do número de estudos experimentais de retração por secagem e autógena ainda é necessário o desenvolvimento de novos modelos analíticos e numéricos para a predição da retração apoiando assim o projeto de estruturas de concreto. Este estudo propôs um modelo de redes neurais artificiais para a predição da retração por secagem do concreto. Um banco de dados nacionais contendo 689 leituras de retração por secagem em mais de 90 dosagens diferentes de concreto convencional foi construído, de acordo com a NBR 16834. O modelo teve como dados de entrada para a predição da retração o consumo e tipo de cimento, aditivo retardador e plastificante, compensador de retração, relação água/cimento e idade do concreto. O modelo apresentou coeficientes de determinação (R²) para dados de treino e teste acima de 0,998 e 0,906, respectivamente, comprovando que o modelo é uma importante ferramenta para a predição da retração por secagem para tomadas de decisão durante os estudos iniciais na fase de projeto e dosagem do concreto. / [en] Due to volume change effects of concrete, understanding the mechanisms of shrinkage has become an important point for reducing cracks and, consequently, the penetration of deleterious agents into concrete structures. Despite the increase in experimental studies on concrete drying and autogenous shrinkage there is still a need to develop new analytical and numerical methods to predict shrinkage supporting the design of concrete structures. This study proposed an Artificial Neural Network (ANN) model to predict the concrete drying shrinkage. A national database containing 689 experimental shrinkage data records, in more than 90 different mixtures of conventional concrete was constructed, in accordance with NBR 16834. The model had as input data for predicting shrinkage the consumption and type of cement, retarding and plasticizer additive, shrinkage compensator, water/cement ratio and age of concrete. The model presented coefficients of determination(R²) for training and test data above 0,998 and 0,906, proving that the model is an important tool for predicting drying shrinkage for decision making during the initial study in the design phase and concrete mix design.
|
655 |
[en] INCLUSION OF NON-SYMBOLIC HUMAN AGENCIES THROUGH DEEP LEARNING IN COMPUTATIONAL DESIGN PROCESSES / [pt] INCLUSÃO DE AGÊNCIAS HUMANAS NÃO SIMBÓLICAS ATRAVÉS DE TÉCNICAS DE APRENDIZADO PROFUNDO EM PROCESSOS DE DESIGN COMPUTACIONAL GENERATIVODANIEL RIBEIRO ALVES BARBOZA VIANNA 03 January 2024 (has links)
[pt] O Design Computacional Generativo é uma forma de Design que consegue gerar uma quantidade virtualmente infinita de possíveis soluções e filtrá-las através de análises computacionais. Cada análise, experimenta e gradua uma demanda, que pode ser relacionada a diversos entes e como estes afetam e são afetados por um design. Dessa maneira, essas análises podem ser entendidas como uma forma de incluir de maneira integrada diversos fatores na síntese da forma do Design. Mesmo com todo esse potencial, as abordagens baseadas no Design Computacional Generativo ainda enfrentam dificuldades na análise e na inclusão de algumas demandas, principalmente naquelas de natureza subjetiva. Isso vem mudando devido a recente introdução de técnicas de Aprendizado Profundo no Design. Essas ferramentas conseguem captar conhecimentos implícitos através da sua aptidão para encontrar padrões em grandes quantidades de dados e replicá-los. Assim, elas podem replicar a avaliação de um designer humano. Essa pesquisa foca especificamente nas análises de critérios processados pelas capacidades humanas não simbólicas. Essas capacidades são aquelas que os humanos partilham com os animais vertebrados e permitem a compreensão de significados e o acionamento de ações sem a necessidade de linguagem. Essas capacidades possuem ao mesmo tempo um caráter objetivo, porque possuem uma base biológica comum a todos os humanos; e subjetivo, porque são influenciadas pelo estado psíquico, pelas motivações e pela experiência de um sujeito. Nesse contexto, o problema identificado é que sem um embasamento teórico essas técnicas acabam se limitando a um exercício fantasioso e ingênuo de automação de Design. Portanto, esta pesquisa parte da hipótese de que um embasamento teórico de conhecimentos da Teoria Pós- humana, da neurociência Conexionista e das Teorias de Fundamentos do Design possibilita que estímulos humanos não simbólicos possam ser incluídos de maneira efetiva na síntese da forma de processos de Design Computacional Generativo através de técnicas de Aprendizado Profundo. O objetivo do trabalho é compreender como a inserção dessas novas técnicas associadas a uma fundamentação teórica específica, vão propiciar a inclusão de fatores não- simbólicas na síntese da forma em processos de Design Computacional Generativo. Para atingir esse objetivo, a pesquisa propõe a elaboração de um conjunto de diretrizes, de uma estrutura metodológica conceitual e de um experimento prático que verifique o funcionamento da avaliação através de máquinas de Aprendizado Profundo. Esses três itens partem do estado da arte da interseção entre o Design Computacional Generativo e as técnicas de Aprendizado Profundo e se baseiam nos conhecimentos Pós-humanos, da neurociência Conexionista e das teorias de Fundamentos do Design. A pesquisa entrelaça dois temas atuais e significativos para o Campo do Design. De um lado, ela busca conhecimentos que preparem os designers para as transformações que a incorporação das técnicas recentes de inteligência artificial vem causando; e de outro, ela se insere nos esforços para que o Design seja um instrumento de transformação da sociedade através de uma reaproximação com as capacidades não simbólicas. / [en] Generative Computational Design is a form of Design that manages to generate a virtually infinite amount of possible solutions and filter them through computational analysis. Each analysis experiences and grades a demand, which can be related to different entities and how they affect and are affected by a design. In this way, these analyzes can be understood as a way of including in an integrated way several factors in the synthesis of the form of Design. Even with all this potential, approaches based on Generative Computational Design still face difficulties in analyzing and including some demands, especially those of a subjective nature. This has been changing due to the recent introduction of Deep Learning techniques in Design. These tools are able to capture implicit knowledge through their ability to find patterns in large amounts of data and replicate them. Thus, they can replicate the assessment of a human designer. This research specifically focuses on the analysis of criteria processed by non-symbolic human capacities. These capabilities are those that humans share with vertebrate animals and allow them the understanding of meanings and the triggering of actions without the need for language. These capacities have at the same time an objective character, because they have a biological basis common to all humans; and subjective, because they are influenced by a subject s psychic state, motivations and experience. In this context, the problem identified is that without a theoretical basis these techniques end up being limited to a fanciful and naive exercise in Design automation and simplistic approaches to style transfer. Thus, this research starts from the hypothesis that a theoretical foundation of knowledge from the Post- Human Theory, from the connectionist neuroscience and from the Fundamental Theories of Design can enable non-symbolic human factors to be effectively included in the synthesis of the form of processes of Generative Computational Design through Deep Learning techniques. The objective of this work is to understand how the insertion of these new techniques associated with a specific theoretical foundation will enable the inclusion of non-symbolic factors in the synthesis of form in Generative Computational Design processes. To achieve this objective, the research proposes the elaboration of a conceptual methodological framework based on the state of the art of the intersection between Generative Computational Design and Deep Learning techniques associated with Post-human knowledge, connectionist neuroscience and Design Foundations theories; as well as the verification of the operation of the technique through the execution of a practical experimental procedure. The research intertwines two current and significant themes for the Field of Design. On the one hand, it seeks knowledge that prepares designers for the transformations that the incorporation of recent artificial intelligence techniques has caused; and on the other hand, it is part of efforts to make Design an instrument for transforming society through a rapprochement with non-symbolic capacities.
|
656 |
[en] AN ARCHITECTURE FOR E-HEALTH SYSTEMS THAT SUPPORTS PATIENT MONITORING AND CAREGIVERS NOTIFICATION BASED ON A REASONING MODEL TO AVOID ALARM FATIGUE / [pt] UMA ARQUITETURA PARA SISTEMAS DE SAÚDE ELETRÔNICOS QUE SUPORTA O MONITORAMENTO DE PACIENTES E A NOTIFICAÇÃO DE CUIDADORES COM BASE EM RACIOCÍNIO AUTOMÁTICO PARA EVITAR A FADIGA DE ALARMECHRYSTINNE OLIVEIRA FERNANDES 11 May 2020 (has links)
[pt] Estimativas informam que 80 por cento a 99 por cento dos alarmes disparados em unidades hospitalares são falsos ou clinicamente insignificantes, representando uma cacofonia de sons que não apresenta perigo real aos pacientes. Estes falsos alertas podem culminar em uma sobrecarga de alertas que leva um profissional da saúde a perder eventos importantes que podem ser prejudiciais aos pacientes ou até mesmo fatais. À medida que as unidades de saúde se tornam mais dependentes de dispositivos de monitoramento que acionam alarmes, o problema da fadiga de alarme deve ser tratado como uma das principais questões, a fim de prevenir a sobrecarga de alarme para os profissionais da saúde e aumentar a segurança do paciente. O principal objetivo desta tese é propor uma solução para o problema de fadiga de alarme usando um mecanismo de raciocínio automático para decidir como notificar os membros da equipe de saúde. Nossos objetivos específicos são: reduzir o número de notificações enviadas à equipe de cuidadores; detectar alarmes falsos com base em informações de contexto do alarme; decidir o melhor cuidador a quem uma notificação deve ser atribuída. Esta tese descreve: um modelo para suportar algoritmos de raciocínio que decidem como notificar os profissionais de saúde para evitar a fadiga de alarme; uma arquitetura para sistemas de saúde que suporta recursos de monitoramento, raciocínio e notificação de pacientes; e três algoritmos de raciocínio que decidem: (i) como notificar os profissionais de saúde decidindo quando agrupar um conjunto de alarmes; (ii) se deve ou não notificar os profissionais de saúde com uma indicação de probabilidade de falso alarme; (iii) quem é o melhor cuidador a ser notificado considerando um grupo de cuidadores. Experimentos foram realizados para demonstrar que, ao fornecer um sistema de raciocínio que agrupa alarmes semelhantes e recorrentes, pode-se reduzir o total de notificações recebidas pelos cuidadores em até 99.3 por cento do total de alarmes gerados, sem perda de informação útil. Esses experimentos foram avaliados através do uso de um conjunto de dados reais de monitoramento de sinais vitais de pacientes registrados durante 32 casos cirúrgicos nos quais os pacientes foram submetidos à anestesia, no hospital Royal Adelaide. Apresentamos os resultados desse algoritmo através de gráficos gerados na linguagem R, onde mostramos se o algoritmo decidiu emitir um alarme imediatamente ou após um determinado delay. Para a tarefa de atribuição de notificações realizada pelo nosso algoritmo de raciocínio que decide sobre qual cuidador notificar, também alcançamos nossos resultados esperados, uma vez que o algoritmo priorizou o cuidador que estava disponível no momento do alarme, além de ser o mais experiente e capaz de atender à notificação. Os resultados experimentais sugerem fortemente que nossos algoritmos de raciocínio são uma estratégia útil para evitar a fadiga de alarme. Embora tenhamos avaliado nossos algoritmos em um ambiente experimental, tentamos reproduzir o contexto de um ambiente clínico utilizando dados reais de pacientes. Como trabalho futuro, visamos avaliar os resultados de nossos algoritmos utilizando condições clínicas mais realistas, aumentando, por exemplo, o número de pacientes, os parâmetros de monitoramento e os tipos de alarme. / [en] Estimates show that 80 per cent to 99 per cent of alarms set off in hospital units are false or clinically insignificant, representing a cacophony of sounds that do not present a real danger to patients. These false alarms can lead to an alert overload that causes a health care provider to miss important events that could be harmful or even life-threatening. As health care units become more dependent on monitoring devices for patient care purposes, the alarm fatigue issue has to be addressed as a major concern in order to prevent healthcare providers from undergoing alarm burden, as well as to increase patient safety. The main goal of this thesis is to propose a solution for the alarm fatigue problem by using an automatic reasoning mechanism to decide how to notify members of the health care team. Our specific goals are: to reduce the number of notifications sent to caregivers; to detect false alarms based on alarm-context information; to decide the best caregiver to whom a notification should be assigned. This thesis describes: a model to support reasoning algorithms that decide how to notify caregivers in order to avoid alarm fatigue; an architecture for health systems that supports patient monitoring, reasoning and notification capabilities; and three reasoning algorithms that decide: (i) how to notify caregivers by deciding whether to aggregate a group of alarms; (ii) whether, or not, to notify caregivers with an indication of a false alarm probability; (iii) who is the best caregiver to notify considering a group of caregivers. Experiments were used to demonstrate that by providing a reasoning system that aggregates alarms we can reduce the total of notifications received by the caregivers by up to 99.3 per cent of the total alarms generated. These experiments were evaluated through the use of a dataset comprising real patient monitoring data and vital signs recorded during 32 surgical cases where patients underwent anesthesia at the Royal Adelaide Hospital. We present the results of this algorithm by using graphs generated with the R language, which show whether the algorithm decided to deliver an alarm immediately or after a given delay. We also achieved the expected results for our reasoning algorithm that handles the notifications assignment task, since the algorithm prioritized the caregiver that was available and was the most experienced and capable of attending to the notification. The experimental results strongly suggest that our reasoning algorithms are a useful strategy to avoid alarm fatigue. Although we evaluated our algorithms in an experimental environment, we tried to reproduce the context of a clinical environment by using real-world patient data. As future work, we aim to evaluate our algorithms using more realistic clinical conditions by increasing, for example, the number of patients, monitoring parameters, and types of alarm.
|
657 |
[en] A METHOD FOR REAL-TIME GENERATION OF VIDEOKE FROM VIDEO STREAMING / [pt] UM MÉTODO PARA GERAÇÃO EM TEMPO REAL DE VIDEOKÊ A PARTIR DE STREAMING DE VÍDEOMATHEUS ADLER SOARES PINTO 21 March 2024 (has links)
[pt] Sistemas tradicionais de karaokê geralmente utilizam vídeos pré-editados,
o que limita a criação de experiências de videokê. Nesta dissertação, propomos
um novo método para a geração de videokê em tempo real a partir de fontes
de streaming de vídeo, chamado Gerador de Videokê. Este método combina
técnicas de processamento de vídeo e áudio para gerar automaticamente
videokê e é projetado para realizar o processamento em tempo real ou próximo
a isso. Os principais objetivos deste estudo são formular uma metodologia
para processar vídeos em fluxo contínuo e gerar videokê em tempo real,
mantendo características essenciais como a supressão das vozes principais da
música e a geração automática de legendas destacando palavras. Os resultados
obtidos representam uma contribuição significativa para o campo da geração de
multimídia em tempo real. O método foi implementado em uma arquitetura
cliente/servidor para testes. Essas contribuições representam um avanço no
campo dos sistemas de entretenimento e multimídia, pois introduzem uma nova
metodologia para a criação de experiências de videokê. Até onde sabemos, este
é o primeiro trabalho que aborda o desenvolvimento de um gerador de videokê
em tempo real que realiza sincronização automática e destaque a nível de
palavras, com base em uma revisão da literatura. / [en] Traditional karaoke systems typically use pre-edited videos, which limits
the creation of videoke experiences. In this dissertation, we propose a new
method for generating videoke in real-time from video streaming sources, called
the videoke Generator. This method combines video and audio processing
techniques to automatically generate videoke and is designed to perform
processing in real-time or near real-time. The main objectives of this study
are to formulate a methodology to process videos in continuous flow and to
generate videoke in real-time while maintaining essential features such as the
suppression of the main voices of the music and the automatic generation
of subtitles highlighting words. The results obtained represent a significant
contribution to the field of real-time multimedia generation. The method was
implemented in a client/server architecture for testing. These contributions
represent a step forward in the field of entertainment and multimedia systems
as they introduce a new methodology for the creation of videoke experiences.
To our knowledge, this is the first work that addresses the development of
a real-time videoke generator that performs automatic synchronization and
highlighting at the word level, based on a literature review.
|
658 |
Plan de negocio para crear una plataforma M-learning que brinde asesorías pedagógicas en Lima, 2021Solano Levano, Eric Grey, Flores Chong, Luy Lam, Murrugarra Murga, Sara Victoria, Abanto Lara, Yissella 10 September 2022 (has links)
El objetivo principal de esta investigación fue desarrollar una propuesta de negocio
para la creación de una plataforma de ventas de cursos online dirigida inicialmente a
docentes, estudiantes y empresas privadas interesadas en la formación y/o asesoramiento en
áreas de administración, economía e informática. Inicialmente solo se espera interactuar con
la demanda en el departamento de Lima, para posteriormente lograr posicionamiento a nivel
nacional y luego de cinco años incursionar en el mercado internacional. La educación
siempre ha sido un pilar fundamental para la sociedad y tras el escenario del covid-19, al
igual que otras actividades se vio interrumpida. Acentuándose así una creciente necesidad,
sobre todo en aquella población tanto de alumnos como de profesores, que aún seguía bajo
metodologías de formación tradicional. Esto hizo que los métodos de aprendizaje digital
acelerarán su globalización, puesto que actualmente utilizar internet es prácticamente de
carácter necesario para la mayoría de actividades cotidianas, entre ellas la educación. En
nuestro caso la capacitación on-line ha desencadenado que la formación sea cada más
accesible desde el punto de vista técnico y económico, ya que, en cualquier parte del mundo,
una persona con un dispositivo inteligente y conectividad a internet puede recibir asesoría o
capacitación de calidad con tasas de inversión bajas o gratuitas. En la presente investigación
se analizan escenarios y estrategias para la puesta en marcha de una empresa, que brindará
servicios de asesorías pedagógicas en Lima, bajo la metodología M-learning, considerando
aspectos, económicos, financieros y técnicos para lograr un negocio sólido. Junto a ello un
estudio de mercado que muestra la factibilidad de incursionar en este sector. Concluyendo
con una propuesta viable que arroja un Valor Actual Neto Económico (VANE) de S /. 373
'010.91 y una Tasa Interna de Retorno del 292.22%, cuyas cifras hacen factible la puesta en
marcha de la propuesta.
|
659 |
Aportaciones al reconocimiento automático de texto manuscritoPastor Gadea, Moisés 06 May 2008 (has links)
En esta tesis se estudia el problema de la robustez en los sistemas de
reconocimiento automático de texto manuscrito off-line. Los sistemas de
reconocimiento automático de texto manuscrito estarán maduros para su uso
generalizado, cuando sean capaces de ofrecer a cualquier usuario, sin ningún
tipo de preparación o adiestramiento para su utilización, una productividad
razonable. Se hace necesario pues, construir sistemas flexibles y robustos en
cuanto a la entrada, de tal manera que no se requiera del escritor ningún
esfuerzo extra, que no haría si escribiese para ser leído por un humano.
La intención del preproceso de la señal es hacer el sistema invariante a
fuentes de variabilidad que no ayuden a la clasificación. En la actualidad no
hay definida una solución general para conseguir invariabilidad al estilo de
escritura, y cada sistema desarrolla la suya ad-hoc. En esta tesis se
explorarán diferentes métodos de normalización de la señal de entrada
off-line. Para ello se hace un amplio estudio de algoritmos de preproceso,
tanto a nivel de toda la imagen: umbralización, reducción del ruido y
corrección del desencuadre; como a nivel de texto: slope, slant y
normalización del tamaño de los caracteres.
Los sistemas dependientes del escritor obtienen mejores tasas de acierto
que los independientes del escritor. Por otra parte, los sistemas
independientes del escritor tienen más facilidad para reunir muestras de
entrenamiento. En esta tesis seestudiará la adaptación de sistemas
independientes del escritor para su utilizaciónpor un único escritor, con la
intención de que a partir de una pocas muestras producidas por este escritor
se mejore la productividad del sistema (para este escritor), o lo que es lo
mismo, que éste pueda escribir de manera más relajada sin que el
sistema pierda productividad. Los sistemas de reconocimiento de texto
manuscrito no están exentos de errores. No sólo interesa saber el número de
errores que producirá / Pastor Gadea, M. (2007). Aportaciones al reconocimiento automático de texto manuscrito [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1832
|
660 |
Algoritmos paralelos segmentados para los problemas de mínimos cuadrados recursivos (RLS) y de detección por cancelación ordenada y sucesiva de interferencia (OSIC)Martínez Zaldívar, Francisco José 06 May 2008 (has links)
Dentro del marco de los sistemas de comunicaciones de banda ancha podemos
encontrar canales modelados como sistemas MIMO (Multiple Input
Multiple Output) en el que se utilizan varias antenas en el transmisor (entradas)
y varias antenas en el receptor (salidas), o bien sistemas de un solo
canal que puede ser modelado como los anteriores (sistemas multi-portadora
o multicanal con interferencia entre ellas, sistemas multi-usuario con una o
varias antenas por terminal móvil y sistemas de comunicaciones ópticas sobre
fibra multimodo). Estos sistemas pretenden alcanzar valores de capacidad de
transmisión relativa al ancho de banda muy superiores al de un único canal
SISO (Single Input Single Output).
Hoy en dÍa, existe, desde un punto de vista de implementación del sistema,
una gran actividad investigadora dedicada al desarrollo de algoritmos de
codificación, ecualización y detección, muchos de ellos de gran complejidad,
que ayuden a aproximarse a las capacidades prometidas.
En el aspecto relativo a la detección, las soluciones actuales se pueden
clasificar en tres tipos: soluciones subóptimas, ML (Maximum Likelihood) o
cuasi-ML e iterativas. En estas ultimas, se hace uso explicito de técnicas de
control de errores empleando intercambio de información soft o indecisa entre
el detector y el decodificador; en las soluciones ML o cuasi-ML se lleva
a cabo una búsqueda en árbol que puede ser optimizada llegando a alcanzar
complejidades polinómicas en cierto margen de relación señal-ruido; por
ultimo dentro de las soluciones subóptimas destacan las técnicas de forzado
de ceros, error cuadrático medio y cancelación sucesiva de interferencias SIC
(Succesive Interference Cancellation), esta última con una versión ordenada
-OSIC-. Las soluciones subóptimas, aunque no llegan al rendimiento
de las ML o cuasi-ML son capaces de proporcionar la solución en tiempo
polinómico de manera determinista.
En la presente tesis doctoral, hemos implementado un método basado
en la literatura para l / Martínez Zaldívar, FJ. (2007). Algoritmos paralelos segmentados para los problemas de mínimos cuadrados recursivos (RLS) y de detección por cancelación ordenada y sucesiva de interferencia (OSIC) [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1873
|
Page generated in 0.1294 seconds