Spelling suggestions: "subject:"aprendizado"" "subject:"aprendizados""
531 |
[en] ENTROPY GUIDED FEATURE GENERATION FOR STRUCTURE LEARNING / [pt] GERAÇÃO DE ATRIBUTOS GUIADA POR ENTROPIA PARA APRENDIZADO DE ESTRUTURAS17 December 2014 (has links)
[pt] Aprendizado de estruturas consiste em aprender um mapeamento de variáveis de entrada para saídas estruturadas a partir de exemplos de pares entrada-saída. Vários problemas importantes podem ser modelados desta maneira. O processamento de linguagem natural provê diversas tarefas que podem ser formuladas e solucionadas através do aprendizado de estruturas. Por exemplo, parsing de dependência envolve o reconhecimento de uma árvore implícita em uma frase. Geração de atributos é uma sub-tarefa importante do aprendizado de estruturas. Geralmente, esta sub-tarefa é realizada por um especialista que constrói gabaritos de atributos complexos e discriminativos através da combinação dos atributos básicos disponíveis na entrada. Esta é uma forma limitada e cara para geração de atributos e é reconhecida como um gargalo de modelagem.
Neste trabalho, propomos um método automático para geração de atributos para problemas de aprendizado de estruturas. Este método é guiado por entropia já que é baseado na entropia condicional de variáveis locais de saída dados os atributos básicos. Comparamos experimentalmente o método proposto com dois métodos alternativos para geração de atributos: geração manual e métodos de kernel polinomial. Nossos resultados mostram que o método de geração de atributos guiado por entropia é superior aos dois métodos alternativos em diferentes aspectos. Nosso método é muito mais barato do que o método manual e computacionalmente mais rápido que o método baseado em kernel. Adicionalmente, ele permite o controle do seu poder de generalização mais facilmente do que métodos de kernel.
Nós avaliamos nosso método em nove datasets envolvendo cinco tarefas de linguística computacional e quatro idiomas. Os sistemas desenvolvidos apresentam resultados comparáveis aos melhores sistemas atualmente e, particularmente para etiquetagem morfossintática, identificação de sintagmas, extração de citações e resolução de coreferência, obtêm os melhores resultados conhecidos para diferentes idiomas como Árabe, Chinês, Inglês e Português. Adicionalmente, nosso sistema de resolução de coreferência obteve o primeiro lugar na competição Conference on Computational Natural Language Learning 2012 Shared Task. O sistema vencedor foi determinado pela média de desempenho em três idiomas: Árabe, Chinês e Inglês. Nosso sistema obteve o melhor desempenho nos três idiomas avaliados.
Nosso método de geração de atributos estende naturalmente o framework de aprendizado de estruturas e não está restrito a tarefas de processamento de linguagem natural. / [en] Structure learning consists in learning a mapping from inputs to
structured outputs by means of a sample of correct input-output pairs. Many
important problems fit into this setting. Natural language processing provides
several tasks that can be formulated and solved as structure learning problems.
Dependency parsing, for instance, involves the prediction of a tree underlying
a sentence. Feature generation is an important subtask of structure learning
which, usually, is partially solved by a domain expert that builds complex
discriminative feature templates by conjoining the available basic features.
This is a limited and expensive way to generate features and is recognized as
a modeling bottleneck.
In this work, we propose an automatic feature generation method
for structure learning problems. This method is entropy guided since it
generates complex features based on the conditional entropy of local output
variables given the available input features. We experimentally compare the
proposed method with two important alternative feature generation methods,
namely manual template generation and polynomial kernel methods. Our
experimental findings indicate that the proposed method is more attractive
than both alternatives. It is much cheaper than manual templates and
computationally faster than kernel methods. Additionally, it is simpler to
control its generalization performance than with kernel methods.
We evaluate our method on nine datasets involving five natural
language processing tasks and four languages. The resulting systems present
state-of-the-art comparable performances and, particularly on part-of-speech
tagging, text chunking, quotation extraction and coreference resolution,
remarkably achieve the best known performances on different languages
like Arabic, Chinese, English, and Portuguese. Furthermore, our coreference
resolution systems achieve the very first place on the Conference on
Computational Natural Language Learning 2012 Shared Task. The competing
systems were ranked by the mean score over three languages: Arabic,
Chinese and English. Our approach obtained the best performances among
all competitors for all the three languages.
Our feature generation method naturally extends the general structure
learning framework and is not restricted to natural language processing tasks.
|
532 |
Aplicação em tempo real de técnicas de aprendizado de máquina no Snort IDS /Utimura, Luan Nunes January 2020 (has links)
Orientador: Kelton Augusto Pontara da Costa / Resumo: À medida que a Internet cresce com o passar dos anos, é possível observar um aumento na quantidade de dados que trafegam nas redes de computadores do mundo todo. Em um contexto onde o volume de dados encontra-se em constante renovação, sob a perspectiva da área de Segurança de Redes de Computadores torna-se um grande desafio assegurar, em termos de eficácia e eficiência, os sistemas computacionais da atualidade. Dentre os principais mecanismos de segurança empregados nestes ambientes, destacam-se os Sistemas de Detecção de Intrusão em Rede. Muito embora a abordagem de detecção por assinatura seja suficiente no combate de ataques conhecidos nessas ferramentas, com a eventual descoberta de novas vulnerabilidades, faz-se necessário a utilização de abordagens de detecção por anomalia para amenizar o dano de ataques desconhecidos. No campo acadêmico, diversos trabalhos têm explorado o desenvolvimento de abordagens híbridas com o intuito de melhorar a acurácia dessas ferramentas, com o auxílio de técnicas de Aprendizado de Máquina. Nesta mesma linha de pesquisa, o presente trabalho propõe a aplicação destas técnicas para a detecção de intrusão em um ambiente tempo real mediante uma ferramenta popular e amplamente utilizada, o Snort. Os resultados obtidos mostram que em determinados cenários de ataque, a abordagem de detecção baseada em anomalia pode se sobressair em relação à abordagem de detecção baseada em assinatura, com destaque às técnicas AdaBoost, Florestas Aleatórias, Árvor... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: As the Internet grows over the years, it is possible to observe an increase in the amount of data that travels on computer networks around the world. In a context where data volume is constantly being renewed, from the perspective of the Network Security area it becomes a great challenge to ensure, in terms of effectiveness and efficiency, today’s computer systems. Among the main security mechanisms employed in these environments, stand out the Network Intrusion Detection Systems. Although the signature-based detection approach is sufficient to combat known attacks in these tools, with the eventual discovery of new vulnerabilities, it is necessary to use anomaly-based detection approaches to mitigate the damage of unknown attacks. In the academic field, several works have explored the development of hybrid approaches in order to improve the accuracy of these tools, with the aid of Machine Learning techniques. In this same line of research, the present work proposes the application of these techniques for intrusion detection in a real time environment using a popular and widely used tool, the Snort. The obtained results shows that in certain attack scenarios, the anomaly-based detection approach may outperform the signature-based detection approach, with emphasis on the techniques AdaBoost, Random Forests, Decision Tree and Linear Support Vector Machine. / Mestre
|
533 |
[pt] COORDENAÇÃO INTELIGENTE PARA MULTIAGENTES BASEADOS EM MODELOS NEURO-FUZZY HIERÁRQUICOS COM APRENDIZADO POR REFORÇO / [en] INTELLIGENT COORDINATION FOR MULTIAGENT BASED MODELS HIERARCHICAL NEURO-FUZZY WITH REINFORCEMENT LEARNING08 November 2018 (has links)
[pt] Esta tese consiste na investigação e no desenvolvimento de estratégias de coordenação inteligente que possam ser integradas a modelos neuro-fuzzy hierárquicos para sistemas de múltiplos agentes em ambientes complexos. Em ambientes dinâmicos ou complexos a organização dos agentes deve se adaptar a mudanças nos objetivos do sistema, na disponibilidade de recursos, nos relacionamentos entre os agentes, e assim por diante. Esta flexibilidade é um problema chave nos sistemas multiagente. O objetivo principal dos modelos propostos é fazer com que múltiplos agentes interajam de forma inteligente entre si em sistemas complexos. Neste trabalho foram desenvolvidos dois novos modelos inteligentes neuro-fuzzy hierárquicos com mecanismo de coordenação para sistemas multiagentes, a saber: modelo Neuro-Fuzzy Hierárquico com Aprendizado por Reforço com mecanismo de coordenação Market-Driven (RL-NFHP-MA-MD); e o Modelo Neuro-Fuzzy Hierárquico com Aprendizado por Reforço com modelo de coordenação por grafos (RL-NFHP-MA-CG). A inclusão de modelos de coordenação ao modelo Neuro-Fuzzy Hierárquicos com Aprendizado por Reforço (RL-NHFP-MA) foi motivada principalmente pela importância de otimizar o desempenho do trabalho em conjunto dos agentes, melhorando os resultados do modelo e visando aplicações mais complexas. Os modelos foram concebidos a partir do estudo das limitações existentes nos modelos atuais e das características desejáveis para sistemas de aprendizado baseados em RL, em particular quando aplicados a ambientes contínuos e/ou ambientes considerados de grande dimensão. Os modelos desenvolvidos foram testados através de basicamente dois estudos de caso: a aplicação benchmark do jogo da presa-predador (Pursuit- Game) e Futebol de robôs (simulado e com agentes robóticos). Os resultados obtidos tanto no jogo da presa-predador quanto no futebol de robô através dos novos modelos RL-NFHP-MA-MD e RL-NFHP-MA-CG para múltiplos agentes se mostraram bastante promissores. Os testes demonstraram que o novo sistema mostrou capacidade de coordenar as ações entre agentes com uma velocidade de convergência quase 30 por cento maior que a versão original. Os resultados de futebol de robô foram obtidos com o modelo RL-NFHP-MA-MD e o modelo RL-NFHP-MA-CG, os resultados são bons em jogos completos como em jogadas específicas, ganhando de times desenvolvidos com outros modelos similares. / [en] This thesis is the research and development of intelligent coordination strategies that can be integrated into models for hierarchical neuro-fuzzy systems of multiple agents in complex environments. In dynamic environments or complex organization of agents must adapt to changes in the objectives of the system, availability of resources, relationships between agents, and so on. This flexibility is a key problem in multiagent systems. The main objective of the proposed models is to make multiple agents interact intelligently with each other in complex systems. In this work we developed two new intelligent neuro-fuzzy models with hierarchical coordination mechanism for multi-agent systems, namely Neuro-Fuzzy Model with Hierarchical Reinforcement Learning with coordination mechanism Market-Driven (RL-NFHP-MA-MD), and Neuro-Fuzzy model with Hierarchical Reinforcement Learning with coordination model for graphs (RL-NFHP-MA-CG). The inclusion of coordination models to model with Neuro-Fuzzy Hierarchical Reinforcement Learning (RL-NHFP-MA) was primarily motivated by the importance of optimizing the performance of the work in all players, improving the model results and targeting more complex applications. The models were designed based on the study of existing limitations in current models and desirable features for learning systems based RL, in particular when applied to continuous environments and/or environments considered large. The developed models were tested primarily through two case studies: application benchmark game of predator-prey ( Pursuit-Game) and Soccer robots (simulated and robotic agents). The results obtained both in the game of predator-prey as in soccer robot through new models RL-NFHP-MA-MD and RL-NFHP-MA-CG for multiple agents proved promising. The tests showed that the new system showed ability to coordinate actions among agents with a convergence rate nearly 30 percent higher than the original version. Results soccer robot were obtained with model RL-NFHP-MA-MD–NFHP-RL and model-CG-MA, the results are good in games played in full as specific winning teams developed with other similar models.
|
534 |
[pt] NOWCASTING DE PIB COM MODELOS DE MACHINE LEARNING: EVIDÊNCIA DOS EUA / [en] NOWCASTING GDP WITH MACHINE LEARNING MODELS: EVIDENCE FROM THE USLUCAS SEABRA MAYNARD DA SILVA 25 May 2020 (has links)
[pt] O presente trabalho investiga o uso de métodos de Machine Learning
(ML) para efetuar estimativas para o trimestre corrente (nowcasts) da taxa
de crescimento do PIB Real dos EUA. Esses métodos conseguem lidar
com um grande volume de dados e séries com calendários de publicação
dessincronizados, e os nowcasts são atualizados cada vez que novos dados
são publicados ao longo do trimestre. Um exercício pseudo-out-of-sample
é proposto para avaliar a performance de previsão e analisar o padrão
de seleção de variável desses modelos. O método de ML que merece o
maior destaque é o Target Factor, que supera o usualmente adotado DFM
para alguns vintages dentro do trimestre. Ademais, as variáveis selecionadas
apresentam consistência entre os modelos e com a intuição. / [en] This paper examines the use of Machine Learning (ML) models to
compute estimates of current-quarter US Real GDP growth rate (nowcasts).
These methods can handle large data sets with unsynchronized release
dates, and nowcasts are updated each time new data are released along the
quarter. A pseudo-out-of-sample exercise is proposed to assess forecasting
performance and to analyze the variable selection pattern of these models.
The ML method that deserves more attention is the Target Factor, which
overcomes the usually adopted dynamic factor model for some predictions
vintages in the quarter. We also analyze the variables selected, which are
consistent between models and intuition.
|
535 |
[pt] APRENDIZADO POR REFORÇO PROFUNDO PARA CONTROLE HÁPTICO COMPARTILHADO EM TAREFAS DESCONHECIDAS / [en] DEEP REINFORCEMENT LEARNING FOR HAPTIC SHARED CONTROL IN UNKNOWN TASKSFRANKLIN CARDENOSO FERNANDEZ 19 November 2020 (has links)
[pt] Os últimos anos mostraram um interesse crescente no uso do controle háptico compartilhado (HSC) em sistemas teleoperados. No HSC, a aplicação de forças orientadoras virtuais, diminui o esforço de controle do usuário e melhora o tempo de execução em várias tarefas, apresentando uma boa alternativa em comparação com a teleoperação direta. O HSC, apesar de demonstrar bom desempenho, abre uma nova lacuna: como disenhar as forças orientadoras. Por esse motivo, o verdadeiro desafio está no desenvolvimento de controladores para fornecer as forças orientadoras virtuais, capazes de lidar com
novas situações que aparecem enquanto uma tarefa está sendo executada. Este trabalho aborda esse desafio, projetando um controlador baseado no algoritmo Deep Deterministic Policy Gradient (DDPG) para fornecer assistência, e uma rede neural convolucional (CNN) para executar a detecção da tarefa.
O agente aprende a minimizar o tempo que o ser humano leva para executar a tarefa desejada, minimizando simultaneamente sua resistência ao feedback fornecido. Essa resistência fornece ao algoritmo de aprendizado informações sobre a direção que o humano está tentando seguir, neste caso na tarefa
pick-and-place. Diversos resultados demonstram a aplicação bem-sucedida da abordagem proposta, aprendendo políticas personalizadas para cada usuário que foi solicitado a testar o sistema. Ele exibe convergência estável e ajuda o usuário a concluir a tarefa com o menor número possível de etapas. / [en] Recent years have shown a growing interest in using haptic share control (HSC) in teleoperated systems. In HSC, the application of virtual guiding forces decreases the user’s control effort and improves execution time in various tasks, presenting a good alternative in comparison with direct teleoperation. HSC, despite demonstrating good performance, opens a new gap: how to design the guiding forces. For this reason, the real challenge lies in developing controllers to provide the virtual guiding forces, able to deal with new situations that appear while a task is being performed. This work addresses this challenge by designing a controller based on the deep deterministic policy gradient (DDPG) algorithm to provide the assistance, and
a convolutional neural network (CNN) to perform the task detection. The agent learns to minimize the time it takes the human to execute the desired task, while simultaneously minimizing their resistance to the provided feedback. This resistance thus provides the learning algorithm with information about
which direction the human is trying to follow, in this case, the pick-and-place task. Diverse results demonstrate the successful application of the proposed approach by learning custom policies for each user who was asked to test the system. It exhibits stable convergence and aids the user in completing the task
with the least amount of steps possible.
|
536 |
[pt] APLICAÇÃO DE TÉCNICAS DE APRENDIZADO DE MÁQUINA PARA A PREDIÇÃO DE INTERNAÇÕES DE ALTO CUSTO / [en] MACHINE LEARNING TO PREDICT HIGH-COST HOSPITALIZATIONSADRIAN MANRESA PEREZ 25 August 2020 (has links)
[pt] Empresas do ramo da Saúde vêm evoluindo seus modelos de gestão, desenvolvendo programas proativos para melhorar a qualidade e a eficiência dos seus serviços considerando informações históricas. Estratégias proativas buscam prevenir e detectar doenças precocemente e também melhorar os resultados das internações. Nesse sentido, uma tarefa desafiadora é identificar quais pacientes devem ser incluídos em programas proativos de saúde. Para isso, a previsão e a modelagem de variáveis relacionadas aos custos estão entre as abordagens mais amplamente utilizadas, uma vez que essas variáveis sào potenciais indicadores do risco, da gravidade e do consumo de recursos médicos de uma internação. A maioria das pesquisas nesta área têm como foco modelar variáveis de custo em uma perspectiva geral e prever variações de custos para períodos específicos. Por outro lado, este trabalho se concentra na previsão dos custos de um evento específico. Em particular, esta dissertação prescreve uma solução para a predição de internações de alto custo, visando dar apoio a gestores de serviços em saúde em suas ações proativas. Para esse fim, foi seguida a metodologia de pesquisa Design Science Research (DSR), aliada ao ciclo de vida de projeto de Ciência de Dados, sobre um cenário real de uma empresa de consultoria em saúde. Os dados fornecidos descrevem internações de pacientes através de suas características demográficas e do histórico de consumo de recursos médicos. Diferentes técnicas estatísticas e de Aprendizado de Máquina foram aplicadas, como Ridge Regression (RR), Least Absolute Shrinkage and Selection Operator (LASSO), Classification and Regression Trees (CART), Random Forest (RF) e Extreme Gradient Boosting (XGB). Os resultados experimentais evidenciaram que as técnicas RF e XGB apresentaram o melhor desempenho, atingindo AUCPR de 0,732 e 0,644, respectivamente. O modelo de predição da técnica RF foi capaz de detectar até 72 porcento, em média, das internações de alto custo com 33 porcento de precisão, o que representa 78,7 porcento do custo total gerado por tais internações. Além disso, os resultados monstraram que o uso de custo prévio e variáveis agregadas de consumo de recursos aumentaram a capacidade de predição do modelo / [en] Healthcare providers are evolving their management models, developing proactive programs to improve the quality and efficiency of their health services, considering the available historical information. Proactive strategies seek not only to prevent and detect diseases but also to enhance hospitalization outcomes. In this sense, one of the most challenging tasks is to identify which patients should be included in proactive health programs. To this end, forecasting and modeling cost-related variables are among the most widely used approaches for identifying such patients, since these variables are potential indicators of the patients hospitalization risk, their severity, and their medical resources consumption. Most of the existing research works in this area aim to model cost variables from an overall perspective and predict cost variations for specific periods. In contrast, this work focuses on predicting the costs of a particular event. Specifically, this thesis prescribes a solution for identifying high-cost hospitalizations, to support health service managers in their proactive actions. To this end, the Design Science Research (DSR) methodology was combined with the Data Science life cycle in a real scenario of a health consulting company. The data provided describes patients hospitalizations through their demographic characteristics and their medical resource consumption. Different statistical and Machine Learning techniques were used to predict high-cost hospitalizations, such as Ridge Regression (RR), Least Absolute Shrinkage and Selection Operator (LASSO), Classification and Regression Trees (CART), Random Forest (RF), and Extreme Gradient Boosting (XGB). The experimental results showed that RF and XGB presented the best performance, reaching an Area Under the Curve Precision-Recall (AUCPR) of 0.732 and 0.644, respectively. In the case of RF, the model was able to detect, on average, 72 percent of the high-cost hospitalizations with a 33 percent of Precision, which represents 78.7 percent of the total cost generated by the high-cost hospitalizations. Moreover, the obtained results showed that the use of prior cost and aggregated variables of resource consumption increased the model s ability to predict high-cost hospitalizations.
|
537 |
[en] DEEP REINFORCEMENT LEARNING FOR VOLTAGE CONTROL IN POWER SYSTEMS / [pt] DEEP REINFORCEMENT LEARNING PARA CONTROLE DE TENSÃO EM SISTEMAS DE POTÊNCIAMAURICIO RAPHAEL WAISBLUM BARG 30 June 2021 (has links)
[pt] Os sistemas de potência são sistemas cyber-físicos responsáveis pela
geração e transporte da energia elétrica desde sua fonte geradora até os consumidores
finais. Durante este percurso, existem diversos processos que devem ser
seguidos para se manter a qualidade do serviço e a segurança e estabilidade do
sistema. Um destes processos envolve o controle de diversos equipamentos de
maneira que a tensão dos barramentos do sistema se mantenha dentro de faixas
pré-estabelecidas. Este controle, normalmente realizado pelos operadores
do sistema em tempo real e por equipamentos automáticos de controle, envolve
um número muito grande de considerações que dificilmente serão avaliadas no
momento da decisão. Para contornar este problema, propõe-se a utilização de
uma ferramenta inteligente que seja capaz de escolher as melhores ações a
serem tomadas para que a tensão do sistema se mantenha nos níveis adequados
levando em consideração as variadas condições do sistema. A metodologia
utilizada pela ferramenta consiste na técnica de Deep Reinforcement Learning
juntamente com três novas variações: windowed, ensemble e windowed ensemble
Q-Learning, que consistem na divisão do processo otimizado em janelas de
treinamento, utilização de múltiplos agentes inteligentes para um mesmo processo
e a combinação destas duas metodologias. As variações são testadas em
circuitos consagrados na literatura e são capazes de obter resultados expressivos
quando comparados com a abordagem de Deep Reinforcement Learning
tradicional utilizada em outros estudos e com o controle intrínseco do próprio
sistema, mantendo a tensão sob controle ao longo do dia. / [en] Electrical Power Systems are cyber-physical systems responsible for the generation and transportation of energy from its generating source to the final customers. During this process many different activities must be conducted in order to keep quality of service and the system s safety and stability. One of these activities regards control of various equipment in order to keep the voltage level on each system bus between specified limits. This control, which is usually conducted by system s operators in real time and by automatic control equipment involves many different constraints and considerations that are hardly ever taken into account during the decision process. In order to mitigate this problem a smart agent capable of deciding which action is best in order to keep the voltages in adequate levels taking into account system s conditions is proposed. The proposed methodology consists on the Deep Reinforcement Learning technique along with three novel variations: windowed, ensemble and windowed ensemble Q-Learning, which consist on the division of the problem in training windows, the usage of multiple learning agents for the same process and on the combination of both these techniques. The variations are tested on academically consecrated test circuits and are capable of attaining expressive results when compared to the traditional Deep Reinforcement Learning approach which is used in other academic studies and also with the systems intrinsic control, keeping voltage under control along the day.
|
538 |
[en] COUPLING MACHINE LEARNING AND MESOSCALE MODELING TO STUDY THE FLOW OF SEMI-DENSE AND DENSE SUSPENSIONS / [pt] INTERLIGANDO APRENDIZADO DE MÁQUINA E SIMULAÇÃO EM MESOESCALA PARA ESTUDAR O ESCOAMENTO EM SUSPENSÕES SEMI-DENSAS E DENSASERIKA IMADA BARCELOS 09 May 2022 (has links)
[pt] Suspensões correspondem a uma classe de materiais amplamente utilizada em uma grande variedade de aplicações e indústrias. Devido à sua extrema versatilidade, elas têm sido foco de inúmeros estudos nas últimas décadas. Suspensões também são muito flexíveis e podem apresentar diferentes
propriedades reológicas e respostas macroscópicas dependendo da escolha dos
parâmetros usados como entrada no sistema. Mais especificamente, a resposta
reológica de suspensões está intimamente associada ao arranjo microestrutural
das partículas que compõem o meio e a fatores externos, como o quão confinadas elas se encontram e a rigidez das partículas. No presente estudo, o efeito
da rigidez, confinamento e vazão na microestrutura de suspensões altamente
concentradas é avaliado usando Dinâmica Dissipativa de Partículas com Núcleo Modificado. Precedento este estudo principal, foram necessárias outras
duas etapas para garantir um sistema de simulação confiável e representativo, que consistiu, essencialmente, na realização de estudos paramétricos para
compreender e estimar os valores adequados para os parâmetros de interacção
parede-partícula.
O presente trabalho aborda estudos paramétricos realizados para auxiliar
na escolha dos parâmetros de entrada para evitar a penetração de partículas
em um sistema delimitado por paredes. Inicialmente um sistema mais simples,
composto por solvente e paredes é construído e os parâmetros de interação e
densidades de parede foram ajustados. Em seguida as interações são definidas
para suspensões. Neste último caso, vários parâmetros desempenham um
papel na penetração e a maneira tradicional de investigar esses efeitos seria
exaustiva e demorada. Por isso, optamos por usar uma abordagem de Machine
Learning para realizar este estudo. Uma vez ajustados os parâmetros, o
estudo de confinamento pôde ser realizado. O objetivo principal deste estudo
foi entender como a microestrutura de suspensões concentradas é afetada
pela vazão, rigidez das partículas e confinamento. Verificou-se que partículas
muito flexíveis sempre formam um aglomerado gigante independente da razão
de confinamento; a diferença está em quão compactadas são as partículas.
No caso de partículas rígidas, um confinamento mais forte leva à formação
de aglomerados maiores. O estudo final aborda um estudo de aprendizado
de máquina realizado para prever a reologia de suspensões não confinadas.
Com este trabalho foi possível entender e ajustar parâmetros de simulação e
desenvolver um domínio computacional que permite estudar sistematicamente
efeitos do confinamento em suspensões. / [en] Suspensions correspond to a class of materials vastly used in a large set of
applications and industries. Due to its extreme versatility, they have been the
focus of numerous studies over the past decades. Suspensions are also very flexible and can display different rheological properties and macroscopic responses
depending on the choice of parameters used as input in the system. More
specifically, the rheological response of suspensions is intimately associated to
the microstructural arrangement of the particles composing the medium and
external factors, such as how strongly they are confined and particle rigidity.
In the present study, the effect of particle rigidity, confinement and flow rate on
the microstructure of highly concentrated suspensions is studied using CoreModified Dissipative Particle Dynamics. Preceding this main study, two other
steps were necessary to guarantee a reliable and realistic simulation system,
which consisted, essentially, on performing parametric studies to understand
and estimate the appropriate values for wall-particle interaction parameters.
The present work address parametric studies performed to assist the
input parameters choice to prevent particle penetration in a wall-bounded
system. Initially a simpler system, composed of solvent and walls, is built and
the interaction parameters and wall densities were adjusted. Following, the
interactions are set for suspensions. In the latter case multiple parameters
play a role in penetration and the traditional way to investigate these effects
would be exhaustive and time consuming. Hence, we choose to use a Machine
Learning approach to perform this study. Once the parameters were adjusted,
the study of confinement could be carried out. The main goal of this study
was to understand how the microstructure of concentrated suspensions is
affected by flow rate, particle rigidity and confinement. It was found that
very soft particles always form a giant cluster regardless the confinement
ratio; the difference being on how packed the particles are. In the rigid
case, a stronger confinement leads the formation of larger clusters. The final
study addresses a machine learning study carried out to predict the rheology
of unconfined suspensions. The main contribution of this work is that it
was possible to understand and adjust simulation parameters and develop a
computational domain that enables to systematically study confinement effects
on suspensions.
|
539 |
[pt] APLICAÇÃO DE SRV E ESN À PREVISÃO DE SÉRIES DO MERCADO DE SEGUROS / [en] APPLYING SVR AND ESN TO FORECAST INSURANCE MARKET SERIESJULIANA CHRISTINA CARVALHO DE ARAÚJO 28 November 2016 (has links)
[pt] A previsão de seguros é essencial para a indústria de seguros e resseguros. Ela fornece subsídios para estratégias de negócios de longo-prazo, e pode servir como um primeiro passo para o planejamento de linhas específicas de produtos. No contexto brasileiro, a previsão de seguros é de especial relevância. O Brasil possui o maior mercado segurador da América-Latina e tem potencial para se tornar um dos mais importantes centros seguradores do mundo no médio-longo- prazo. A SUSEP e a CNseg realizam previsões de carteiras do mercado de seguros brasileiro com base em modelos estatísticos. Entretanto, as séries temporais de prêmios utilizadas para essas previsões exibem comportamento não estacionário e não linear. Assim, a utilização de algoritmos de machine learning, na modelagem de séries de seguros, se justifica em função da habilidade desses algoritmos em capturar componentes de natureza não linear e dinâmica que possam estar presentes nessas séries, sem a necessidade de realizar suposições sobre o processo gerador dos dados. Com base no exposto, este trabalho investiga o uso de redes neurais Echo State (ESN) e GA-SVR na previsão de prêmios de seguros do mercado brasileiro. A base de dados utilizada neste trabalho foi disponibilizada pela SUSEP e compreende as carteiras de Automóveis, Vida e Previdência. Foram realizadas previsões univariadas e multivariadas com ESN e GA-SVR para as três carteiras mencionadas. Os resultados demonstram superioridade preditiva da ESN. / [en] Insurance forecasting is essential for the insurance industry. It provides support for long-term business strategies and can serve as a first-step for planning specific lines of products. In the Brazilian context, insurance forecasting is of special relevance. In the Latin American insurance market, Brazil is the leader in premium, and could become one of the most important insurance centers of the world in the medium- or long-term. SUSEP and CNseg forecast insurance products of the Brazilian market with statistical models. Nevertheless, premium time series exhibit nonstationary and nonlinear behavior. Therefore, the use of machine learning algorithms in the modeling of insurance series is justified, due to the ability of these algorithms in capturing nonlinear and dynamic components, which may be present in those series, without making assumptions about the data generating process. Based on this, this work investigates the use of Echo State neural networks (ESN) and GA-SVR in the forecast of insurance premium of the Brazilian market. The database used in this work was provided by SUSEP and consists of the products Automobiles, Life and Providence. Univariate and multivariate forecasts were made with ESN and GA-SVR for the three aforementioned products. The results show predictive superiority of ESN.
|
540 |
[en] ASSESSING THE BENEFITS OF MLOPS FOR SUPERVISED ONLINE REGRESSION MACHINE LEARNING / [pt] AVALIAÇÃO DOS BENEFÍCIOS DE MLOPS PARA APRENDIZADO DE MÁQUINA SUPERVISIONADA ONLINE DE REGRESSÃOGABRIEL DE ARAUJO CARVALHO 30 October 2023 (has links)
[pt] Contexto: As operações de aprendizagem automática (MLOps) surgiram como um conjunto de práticas que combina desenvolvimento, testes e
operações para implementar e manter aplicações de aprendizagem automática. Objetivo: Nesta dissertação, iremos avaliar os benefícios e limitações da
utilização dos princípios de MLOps no contexto de modelos supervisionados
online, que são amplamente utilizados em aplicações como a previsão meteorológica, tendências de mercado e identificação de riscos. Método: Aplicámos dois métodos de investigação para avaliar os benefícios dos MLOps para
aplicações de aprendizagem automática online supervisionada: (i) desenvolvimento de um projeto prático de aprendizagem automática supervisionada
para aprofundar a compreensão do problema e das possibilidades de utilização dos princípios MLOps; e (ii) duas discussões de grupo de foco sobre
os benefícios e limitações da utilização dos princípios MLOps com seis programadores de aprendizagem automática experientes. Resultados: O projeto
prático implementou uma aplicação de aprendizagem automática de regressão
supervisionada utilizando KNN. A aplicação utiliza informações sobre as rotas das linhas de autocarros públicos do Rio de Janeiro e calcula a duração
da viagem de autocarro com base na hora de partida do dia e no sentido da
viagem. Devido ao âmbito da primeira versão e ao facto de não ter sido implementada em produção, não sentimos a necessidade de utilizar os princípios
MLOps que esperávamos inicialmente. De facto, identificámos a necessidade
de apenas um princípio, o princípio do controlo de versões, para alinhar as
versões do código e dos dados. O grupo de discussão revelou que os programadores de aprendizagem automática acreditam que os benefícios da utilização
dos princípios MLOps são muitos, mas que não se aplicam a todos os projectos em que trabalham. A discussão revelou que a maioria dos benefícios está
relacionada com a prevenção de passos manuais propensos a erros, permitindo
restaurar a aplicação para um estado anterior e ter um pipeline robusto de
implementação automatizada contínua. Conclusões: É importante equilibrar
as compensações do investimento de tempo e esforço na implementação dos
princípios de MLOps, considerando o âmbito e as necessidades do projeto. De
acordo com os especialistas, esse investimento tende a compensar para aplicativos maiores com implantação contínua que exigem processos automatizados
bem preparados. Por outro lado, para versões iniciais de aplicações de aprendizagem automática, o esforço despendido na implementação dos princípios
pode alargar o âmbito do projeto e aumentar o tempo de execução. / [en] Context: Machine Learning Operations (MLOps) has emerged as a set
of practices that combines development, testing, and operations to deploy and
maintain machine learning applications. Objective: In this dissertation, we
will assess the benefits and limitations of the use of MLOps principles in the
context of online supervised models, which are widely used in applications such
as weather forecasting, market trends, and risk identification. Method: We
applied two research methods to assess the benefits of MLOps for supervised
online machine learning applications: (i) developing a practical supervised
machine learning project to deepen the understanding of the problem and of
the MLOps principles usage possibilities; and (ii) two focus group discussions
on the benefits and limitations of using the MLOps principles with six
experienced machine learning developers. Results: The practical project
implemented a supervised regression machine learning application using KNN.
The application uses information on Rio de Janeiro s public bus line routes and
calculates the bus trip duration based on the trip departure time of the day
and trip direction. Due to the scope of the first version and given that it
was not deployed into production, we didn t feel the need to use the MLOps
principles we were expecting at first. Indeed, we identified the need for only
one principle, the versioning principle, to align versions of the code and the
data. The focus group revealed that machine learning developers believe that
the benefits of using MLOps principles are many but that they do not apply
to all the projects they worked on. The discussion brought up that most of
the benefits are related to avoiding error-prone manual steps, enabling it to
restore the application to a previous state, and having a robust continuous
automated deployment pipeline. Conclusions: It is important to balance the
trade-offs of investing time and effort in implementing the MLOps principles
considering the scope and needs of the project. According to the experts, this
investment tends to pay off for larger applications with continuous deployment
that require well-prepared automated processes. On the other hand, for initial
versions of machine learning applications, the effort taken into implementing
the principles might enlarge the scope of the project and increase the time
needed to deploy a first version to production.
|
Page generated in 0.4675 seconds